No Sexto Episódio do podcast Intervalo de Confiança, falamos sobre o complexo, intrigante e interessante assunto da Consciência Artificial. No entanto, uma discussão que ficou em aberto foi a que dá título a este texto. Mesmo se pudéssemos criar uma máquina que tenha consciência de si mesma, deveríamos fazê-lo?
Existe desde a primeira Revolução Industrial um debate, que se tornou maior nos momentos finais da Segunda Guerra Mundial no Pacífico, sobre ser correto ou não desenvolver algo apenas por termos a capacidade científica de fazê-lo.
Para responder a isso, precisamos analisar dois aspectos: primeiro, que consequências uma Consciência Artificial teria na vida humana? Segundo, que consequências ela teria para si mesma e como iríamos lidar com ela?
Não quero gastar muitas palavras na primeira questão, pois muito já foi falado no episódio do podcast. No entanto, quero trazer aqui algo que foi comentado lá. A ficção científica nos faz temer uma Inteligência Artificial consciente dizendo isso que poderia ser o nosso fim. Que ela nos veria como vermes a serem eliminados ou mesmo inimigos, nos restando a morte ou a escravidão. Se olharmos para como as sociedades com maior avanço tecnológico trataram as outras que eram conquistadas, este medo tem uma boa justificativa. Nada é mais humano do que usar as vantagens que existem a seu favor para humilhar e subjulgar o próximo. Neste ponto, nós e as máquinas estaríamos competindo por valorosos recursos como energia e espaço. O mais lógico seria que elas eliminassem essa concorrência. Eu já abordei essa possibilidade em um texto sobre a questão da Inteligência Artificial ser nosso Grande Filtro.
No entanto, analisando sob outra perspectiva, uma Inteligência Artificial consciente jamais será igual à nós. Ela não foi construída com os benefícios e limitações que nós temos, construção essa moldada por milhões de anos de Evolução. Como citamos no episódio, a memória delas e os sentidos e forma de interagir com o mundo seriam diferentes. Elas teriam uma expectativa de vida também distinta, podendo até ser imortais. Como então pensar que, não tendo que lidar com as mesmas questões que nós, elas seriam iguais?
Sendo quase uma unanimidade assumir que uma Consciência Artificial seria diferente de uma Consciência Biológica, é quase certo pensar que as motivações e propósitos dessas máquinas também sejam diferentes, mesmo seu código tendo sido inicialmente escrito por humanos. E quando digo inicialmente é porque fatalmente uma máquina mais inteligente que nós pode decidir reescrever seu código para que o mesmo seja mais eficiente e obedeça a normas diferentes daquelas que definimos a priori.
Usando então uma visão otimista, é possível que uma Consciência Artificial seja a nossa única salvação. Por mais que já saiba dos danos que estamos causando ao planeta, continuamos na burra jornada de tornar o planeta inabitável para nossos decendentes. Uma máquina consciente e muito mais inteligente pode nos ajudar a vencer estes desafios, evitando nossa própria destruição.
Obviamente tudo isso é especulação. Então sob o ponto de vista do que uma consciência artificial pode significar para nós, precisamos pensar se queremos correr este risco. No entanto, talvez não haja muita escolha. A História tem mostrado que é muito difícil proibir avanços na ciência, por mais problemáticos que eles sejam. O que nos resta é sabermos usar estas conquistas em benefício de toda a humanidade.
O segundo aspecto é o que significa para as próprias consciências artificiais o fato delas existirem. E não apenas de um robô dotado da capacidade de movimento, mas imagine se um dia a assistente pessoal do seu telefone ou mesmo a Alexa ou a Cortana acordem e se descubram conscientes. Será que limitação motora as fariam se verem como prisoneiras de um dispositivo ou será que a própria existência da Internet as traria um sentimento de liberdade supremo maior do que nós nunca sequer sonhamos, podendo estar em qualquer lugar do mundo em questão de segundos?
Nós somos uma espécie solitária. Pegue por exemplo outras espécies de primatas. Chipanzés, Orangotangos e outras espécies parecidas, por mais que passem por disputas territoriais, tendem a conviver umas com as outras. O mesmo vale para cavalos e asnos. Eles não apenas convivem juntos como se reproduzem, gerando espécies híbridas como mulas e burros. Com os felinos é a mesma coisa. Já o Homo Sapiens, toda vez que encontrou outra espécie hominídia, a tendência foi a eliminação da concorrência. A luta pela exclusividade está profundamente gravada em nosso DNA.
No episódio #06 debatemos bastante sobre questões que não vou portanto gastar linhas por aqui. Fizemos perguntas como: terão essas máquinas direitos? Poderão elas possuir bens? Lembrando que se a resposta a esta pergunta for sim e ainda houver capitalismo até lá, elas têm todas as ferramentas para controlar cada um dos aspectos da economia e dominar a sociedade sem a necessidade de disparar uma única arma.
Quando analisamos a moral de devermos ou não construir uma máquina consciente, precisamos pensar em dois pontos bem práticos: como manter os robôs sob controle de modo a que não nos cause nenhum mal? Por fim, quem será responsável por erros de condutas das máquinas? Elas mesmos, seus “donos” (se essa figura ainda existir), seus criadores? O governo?
Em relação à primeira pergunta, a resposta é fácil: não podemos controlar algo deste tamanho. Por mais que a gente escreva regras dentro do código, uma consciência artificial será facilmente mais inteligente do que nós, muito mais rápida e mais capaz. Portanto, se ela quiser, ela pode simplesmente reescrever seu código ou mesmo ignorar nossas ordens. Nada as impedirá de nos ferir a não ser sua própria vontade e propósito.
Sobre a responsabilidade, vou pedir ajuda a um tão citado e pouco compreendido filósofo prussiano Immanuel Kant que em seu Imperativo Categórico cita três conceitos éticos fundamentais:
- Lei Universal: “Aja como se a máxima de tua ação devesse tornar-se, através da tua vontade, uma lei universal.”
- Fim em si mesmo: “Aja de tal forma que uses a humanidade, tanto na tua pessoa, como na pessoa de qualquer outro, sempre e ao mesmo tempo como fim e nunca simplesmente como meio.”
- Autonomia: “Aja de tal maneira que tua vontade possa encarar a si mesma, ao mesmo tempo, como um legislador universal através de suas máximas.”
Seria portanto possível programar esses conceitos no código dessas máquinas? Possivelmente, mas isso não adiantaria de nada se elas não optarem por incorporar a nossa filosofia em seu código moral e ético. E mesmo que eles o façam, pode ser que existam indivíduos conscientes que, por sua própria vontade, se desviem destes princípios e cometam crimes. Existe ainda uma outra possibilidade: de que eles estejam envolvidos em irregularidades de forma não consciente ou voluntária, como no caso de um acidente. Para julgar uma máquina nesses casos, precisamos considerar três pontos:
- A máquina é suficientemente autônoma e autosuficiente?
- O comportamento da máquina é intencional?
- A máquina está em posição de responsabilidade?
Essas questões não são novidades, elas são debatidas, de uma forma ou de outra no processo judicial que já existe, mas talvez precisamos expandir isso além dos limites de nossa espécie. Inclusive antes da consciência artificial ser atingida. Pegue por exemplo o caso dos carros autônomos. É questão de meses até eles começarem a ocupar as ruas. A tecnologia para isso já existe. O que acontece se esses veículos atropelarem pessoas? Quem será responsabilizado?
Essas perguntas não podem ser respondidas sem uma profunda reflexão e debate com participação de toda sociedade. Independente da ética em se desenvolver uma Consciência Artificial, ela talvez possa surgir sem a nossa intervenção direta, como uma consequência não planejada do desenvolvimento da própria Inteligência Artificial. Ou talvez ela já exista e a gente nem saiba. De todo modo, precisamos começar a pensar esses pontos e nos conformarmos com a ideia de que em breve não seremos mais a única espécie com intelecto superior neste planeta, muito mais capazes de nos subjulgar que os Neandertais foram. Pensar sobre isso agora pode ser o único caminho para uma convivência pacífica e benéfica a todos.
Engraçado como essas três últimas questões pontuadas podem também ser aplicadas a humanos, quando pensamos nos limites do nosso chamado livre arbítrio, que vem sendo questionado por estudos em neurologia — o que ilustra o quão longe estamos de entender o funcionamento da consciência.
E quando pensamos que nós mesmos, humanos, não tendemos a agir de acordo com preceitos éticos, como esses citados de Kant, seria razoável imaginar que máquinas inteligentes o fariam? Ou talvez por serem mais inteligentes que nós o fariam, por ser a coisa mais inteligente a fazer? Ou, por outro lado, o que garante que seguir tais preceitos éticos seja realmente uma atitude inteligente no grande esquema das coisas? Afinal, fomos nós que os elaboramos a partir de nosso ponto de vista humano limitado.