Não é raro na antiguidade relatos de mitos e lendas onde uma grande destruição caía sobre a humanidade, seja localizada em uma cidade ou mesmo no planeta inteiro. Esses eventos eram sempre descritos como alguma vingança divina ou devido a uma necessidade de purificação. Como as primeiras cidades e civilizações sempre emergiam próximo a grandes rios ou mares e o controle sobre esses era fundamental para a sobrevivência, essas catástrofes estavam muitas vezes relacionadas a enormes dilúvios. Imagens como a que ilustra este texto eram inexistentes no imaginário popular.

No entanto, mesmo as mentes mais criativas do passado que moldaram muitas das religiões da época não conseguiam imaginar um futuro sem a presença de seres humanos. Havia sempre um ato redentor que salvaria os mais justos, seja pela construção de uma arca ou mesmo por uma direta intervenção dos deuses. Se somos a mais alta criação do céu, como imaginar um mundo ausente desta obra criada “à sua imagem e semelhança”?

No século 1 AEC, o filósofo romano Lucrécio disse que “nada na Criação é único (no sentido de que só existe um exemplar), portanto, nada pode de fato deixar de existir”. E não apenas a filosofia e a religião compartilhavam desta crença. Em 1686, o cientista francês Bernard Le Bouyer de Fontenelle  afirmou que mesmo que nossa espécie deixe de existir ou que o Sol morra, um novo mundo, em algum local do Universo, será repovoado e espécies exatamente iguais às da Terra surgiriam de novo. Quase dois Séculos depois Charles Darwin mostraria ao mundo como um pensamento assim era absurdo. No entanto, a ideia de que não mais existiria um ser humano andando sobre as vastas e cobiçadas terras deste pequeno pontinho azul era absurda.

Quadro “Apocalipse” por Albert Goodwin (1903)

Seria necessário uma ruptura do paradigma religioso sobre o papel da humanidade no mundo para que esse limite de pensamento fosse ultrapassado. Isso aconteceu na França com o período em que conhecemos como Iluminismo, que vai da morte de Luís XIV em 1715 até o início da Revolução Francesa em 1789. Quando começamos a deixar de nos ver como “seres especiais” para entendermos que somos mais uma espécie no mundo, passamos a perceber que o nosso fim não apenas é possível, ele é relativamente provável.

Apesar de já termos definido o conceito de Espécie por volta de 1680, foi apenas em 1758, através do trabalho de Carl Linnaeus que passamos a usar o termo “espécie humana” e nos considerarmos um outro tipo de animal. Ainda especiais, mas sujeitos às mesmas regras naturais que leões, pombos e capivaras. Em 1850, com a publicação de A Origem das Espécies de Charles Darwin é que fomos finalmente entender nossa ordinariedade. Este fato aliado à evolução da geologia e da paleontologia nos fez entender, após muita relutarmos, que se outras espécies foram exitintas, talvez nosso momento final um dia chegue fatalmente.

Desde então, a literatura e o cinema nos inundou com diversas hipóteses sobre como chegaríamos à tão temida extinção. Isso se tornou muito popular a partir da década de 1930 quando surgiram as primeiras revistas de ficção científicas e nomes como Isaac Azimov e Arthur C. Clarc começaram a explorar invasões alienígenas e catástrofes nucleares capazes de dizimar nossa espécie. No entanto, o que mais assombrou pessoas à época e ainda tira o sono de muita gente hoje em dia é que a mais provável causa de nosso fim pode chegar pelas nossas próprias mãos. E não há Lei de Azimov que possa nos salvar dela.

Quadro “Armagedom” por Joseph Paul Pettit (1852)

Antes de abordar esse tema, deixe-me voltar no tempo em que alguns dos cientistas mais brilhantes vivendo sobre solo americano se juntaram no deserto do Novo México para trabalhar no então secreto Projeto Manhattan que tinha como objetivo de desenvolver uma arma nuclear antes que a Alemanha nazista o fizesse, pondo fim à Segunda Guerra Mundial. Dentre esses cientistas encontrava-se o físico italiano Enrico Fermi. Conversando com seus colegas cientistas nas horas vagas sobre diversos temas, ele levou em consideração a idade e o tamanho do Universo e calculou em quantos locais haveria vida inteligente. Baseado no fato de que somos uma civilização muito jovem, é de se imaginar que existam milhões de planetas com populações milhões de anos à nossa frente em termos tecnológicos. Então, se a probabilidade de que o cosmos esteja lotado de civilizações avançadas é de mais de 90%, onde elas estão? Por que nunca obtivemos nenhuma evidência de sua existência? Por que nunca capturamos nenhum sinal de rádio ou recebemos nenhuma visita? Em outras palavras, onde está todo mundo?

Esse questionamento, mais tarde batizado de Paradoxo de Fermi, levou diversos cientistas a pensar em possíveis explicações. Uma hipótese plausível e assustadora é a do Grande Filtro. Segundo ela, existe algum evento na vida dos planetas que faz com que esse número grande de povos avançados não seja possível. Este filtro pode estar no nosso passado, por exemplo, um meteoro que eventualmente destrói toda vida inteligente antes de que ela consiga se defender dessa ameaça. Neste caso, tivemos sorte e a ajuda de Júpiter e Saturno para que não fossemos vítimas desta catástrofe e aqui estamos, uma enorme exceção da ordem celeste.

No entanto, a assustadora hipótese é que este Grande Filtro esteja ainda por vir. Ele pode ser um cataclisma atômico devido a tecnologias de destruição em massa que o próprio Fermi ajudou a criar, ou mesmo algo que estamos desenvolvendo agora e é um dos temas centrais deste site e do podcast que leva o nosso nome.

Quadro “O Fim do Mundo”, por Carole Johnson (2017)

Neste texto, eu alertei sobre os riscos de a sociedade se alienar do debate sobre Inteligência Artificial. No episódio 04 do podcast, debatemos como esta tecnologia vai afetar o futuro do trabalho e da humanidade como um todo. No entanto, o que também precisamos discutir é dos riscos reais de que a evolução da Inteligência Artificial possa nos levar um dia a sermos considerados obsoletos. Pode parecer hipócrita que um cientista de dados como eu, que ajuda a desenvolver este tipo de tecnologia, esteja preocupado com isso. Por que não impedir esse avanço, se ele é um risco? A resposta é simples: não é possível conter o progresso, mas podemos lutar para que ele possa ser benéfico à sociedade ao invés de simplemente ser um agente do lucro pelo lucro e da exploração. Este avanço vai chegar. Na verdade ele já está aqui. O que nos resta é tomar as rédeas do debate.

Um dia muito provavelmente chegaremos ao desenvolvimento do que chamamos de Inteligência Artificial Geral. Este tipo de IA será capaz de executar qualquer tarefa humana com a mesma capacidade que nós. Ela poderá criar arte, filosofia, explorar recursos naturais, crescer e se desenvolver de tal modo que o uso de pessoas para qualquer trabalho será absolutamente irrelevante. Talvez ela até crie religiões, ou mesmo nós passamos a entender essas máquinas como seres dignos de devoção. De todo modo, o mais importante é que ela será capaz de programar a si própria, criando novas máquinas cada vez mais inteligentes.

Ilustração da revista “Popular Science” em sua edição de Setembro de 1939.

Alguns especialistas estimam que estamos entre 30 a 60 anos de tornarmos isso realidade. Isso é um espaço absurdamente pequeno de tempo. Se um dia chegarmos neste ponto, será questão de dias até a Singularidade ser ultrapassada; ou seja, máquinas se tornarão exponencialmente mais inteligentes que os mais geniais humanos. Neste ponto, restará então apenas esperarmos que elas não nos vejam como ameaça. Caso contrário, filmes como Matrix deixarão os corredores de ficção para as prateleiras de documentários.

Obviamente este futuro catastrófico que explorei nos parágrafos anteriores é apenas uma das possibilidades. Alguns estimam que a probabilidade de uma IA nos destruir é de 10%, mas isso já é milhares de vezes maior que a chance de sermos extintos por uma ameaça externa como meteoros e dezenas de vezes maior de um cataclisma nuclear.

Pode ser que a gente nunca chegue neste nível de tecnologia, pode ser que haja uma barreira intransponível da qual ainda não temos conhecimento. Uma alternativa é que as Super Inteligências Artificiais se tornem realidade, mas que não desejem nada além de nos ajudar e, com elas, possamos aprender a sermos uma sociedade mais justa e sustentável. Será a superação dos modelos econômicos atuais para algo que não nos leve à extinção por outros meios.

Tudo até o momento é conjectura, mas a influência da Inteligência Artificial é real e presente. Ela ajudou a eleger governos autoritários no mundo todo, está ameaçando empregos e em breve fará entregas e guiará carros e aviões. Estamos cada vez mais conectados e dependentes de máquinas. É inegável a mudança irreversível pela qual nossa sociedade está passando. Ela já está acontecendo. Cabe a cada um de nós fazer parte dessa discussão para, juntos, decidirmos em que sociedade queremos viver. Estude, informe-se, dê sugestões, convide outros para o debate. Se assim não o fizermos, pode ser que aquilo que os antigos achavam improvável aconteça. Desta vez não pela ação divina, mas por nossas próprias mãos.

Quadro “Prometeu Acorrentado”, por Peter Paul Rubens (1612)

Seremos assim a espécie mais capaz e mais estúpida que já existiu. Contruímos nossa própria obsolência. Levamos o saber às máquinas, mas ao invés de termos nosso fígado devorado como Prometeu, veremos no horizonte o sol se por para sempre diante dos nossos olhos. Então, ao invés de olharmos para o céu em busca das causas de nosso fim, precisamos nos ver em frente a um espelho.

Cena do filme “2001, uma Odisséia no Espaço” onde um grupo de primatas encontra um monolito.

Se nossa mais perigosa criação for também feita à nossa imagem e semelhança, nosso fim é breve. Nossa única esperança é de que ela aprenda com nossos erros e seja melhor do que nós não apenas em inteligência, mas também em caráter.

Author: Igor Alcantara

Cientista de Dados, professor e podcaster. Com mais de uma década de experiência trabalhando com dados, atualmente reside em Boston - MA com sua família e uma gata.