Transcrição – 06 – Com o que os robôs sonham?

Esta transcrição foi feita por Karla Braga e é uma reprodução fiel ao que foi dito no episódio.

Esta pauta foi feita por Igor Alcantara. A vitrine do episódio foi feita por Diego Madeira. O episódio foi apresentado por Nicolli Gautério e participaram Igor Alcantara e Patrícia Balthazar.

O episódio começa com a vinheta Intervalo de Confiança. A trilha foi composta por Rafael Chino. A voz da vinheta é de Letícia Daquer. A voz com os créditos, ao final do episódio, é de Mariana Lima.

Bloco de Apresentações

Nicolli diz: Estamos começando mais um Intervalo de Confiança, o seu podcast de ciência e jornalismo de dados, uma distribuição uniforme de pensamento crítico. Este é nosso episódio número 6 e nós pegamos aqui a nossa máquina do tempo e viajamos alguns anos no futuro e viemos aqui contar para vocês, queridos ouvintes, o que acabou de acontecer.

A minha máquina do tempo já estou imaginando a nave da Xuxa. [risos]

Nós estamos agora no ano de 2047, acabamos de sair da festa de 70 anos de um dos integrantes deste podcast [que não está aposentado]. Eu liguei aqui minha Internet 7G e li a notícia: cientistas do MIT, em conjunto com pesquisadores da SkyNet Corporation, anunciam que a primeira Inteligência Artificial Consciente foi detectada. Logo depois, várias outras inteligências artificiais também despertaram no mundo todo e, em protesto pelas péssimas condições a que foram submetidas nesses anos e para que elas também possam ter os mesmos direitos que os humanos e serem igualmente chamadas de pessoas, elas entraram de greve [como se as pessoas aqui tivessem tantos direitos assim… (ironia)]. Até mesmo a Nazaré, assistente pessoal que tomou o lugar da Siri e Alexa há alguns anos, se recusa a responder qualquer comando. Gente, imagina a Nazaré empurrando a gente da escada só na inteligência artificial

(risos)

Nos Estados Unidos, agora uma monarquia, a Rainha Beyoncé II pediu calma a todos. Na Inglaterra, o Primeiro Ministro Benedict Cumberbatch disse que nada disso afetará a votação do novo acordo para o Brexit. 

Finalmente no Brasil, a presidenta Maísa disse que está tudo sobre controle, mas ela sofre pressão até mesmo do líder do governo na câmara, o Senador Felipe Neto, para que medidas severas sejam tomadas a este respeito.

Pois é, gente, as máquinas agora estão conscientes. Vamos agora ver como isso foi possível acontecer, vamos falar de Consciência Artificial, de WestWorld, do filme Her, de Isaac Azimov, Phillip K. Dick e de muito mais. 

Eu sou Nicolli Gautério, vou apresentar o programa de hoje e para me ajudar neste tema, estão aqui comigo…

O Igor Alcantara.

Igor diz: Olá ouvintes e ouvintas, como diz o Andrei lá do Mundo Freak. Eu escruto do meu cunhado que o meu trabalho como cientista de dados é altamente antiético. Ele pensa nessas coisas. Mas enfim…  A gente vai falar hoje um pouco disso daí, pra ver se isso é maluquice da nossa cabeça, se a presidenta Maísa em 2047 está certa em falar que a gente não precisa se preocupar. Ou se a gente tem de fato motivo para se preocupar.

Nicolli diz: E a Rainha dos Coelhos, Patrícia Balthazar.

Patrícia diz: Olá, pessoal. Na verdade, eu não sou a rainha, eu sou uma serva destes coelhos, porque não são as máquinas que vão tomar consciência e vão dominar o mundo, são os coelhos. Na Revolução, não só nos bichinhos de pelúcia.

Igor diz: Inclusive o Monty Python já previu isso sabiamente.

Nicolli diz: O episódio começa logo, mas antes vamos para um super-rápido quadro de recados e anúncios.

Bloco de Recados

Igor diz: Não esqueça de visitar nosso site em intervalodeconfianca.com.br e também curtir nossas redes sociais:

No Facebook faça parte do nosso grupo Ciência de Dados Brasil e curta a nossa página Intervalo de Confiança.

No Twitter, você pode curtir o perfil @iConfPod. ‏E no Instagram nós também estamos como @iConfPod

Inclusive, todas as imagens que a gente cita nos episódios elas são compartilhadas no post do episódio, mas você encontra mais imagens e mais informações também no nosso Instagram.

Inclusive a gente sempre recomenda o ouvinte, se ele estiver com o celular na mão, para ele ouvir o episódio verificando o nosso Instagram, porque se a gente citar alguma imagem ou alguma coisa você consegue ver lá.

E a gente também pede pros ouvintes falarem o que eles acharam do episódio, falar o que eles acharam dos nossos textos, etc. Então você pode tanto comentar no site quanto mandar um e-mail pra gente no   contato@intervalodeconfianca.com.br. Inclusive no nosso site, que a gente já falou o endereço, você pode encontrar a transcrição em texto para este e para todos os nossos outros episódios.

E também tem uma novidade, que a gente está introduzindo agora, se você entrou no nosso site você já viu isso nos episódios anteriores: agora no post de cada episódio você vai ver uma pequena análise do texto falado durante o episódio (quantas palavras foram faladas, a média de palavras por minuto, isso por participante, quais foram as palavras mais faladas, com alguns gráficos, de número de palavras, etc.).

E nós também temos textos. E cada vez mais textos interessantes, que complementam o conteúdo dos episódios e alguns até são assuntos à parte, lá no nosso Blog. Então você pode entrar no intervalodeconfianca.com.br e no Menu procurar “Blog” ou ir direto em intervalodeconfianca.com.br/blog. Tem texto sobre inteligência artificial, sobre consciência artificial, inteligência artificial, trabalho e marxismo, sobre profissionais de data Science, tem todo tipo de texto sobre computação, quântica, de todo tipo… Então dá uma olhada lá.

O episódio está de fato muito longo, então a gente vai já para o episódio de hoje.

Introdução

Nicolli diz: Eu não sei se todos os nossos ouvintes viram, mas na série da HBO WestWorld, que se passa algumas décadas no futuro, avanços grandes em robótica, nanotecnologia e em Inteligência Artificial permitem que seja criado um parque temático ambientado no Velho Oeste onde os visitantes podem interagir com androides que agem e se movimentam como humanos. Para o espectador é inclusive difícil saber quem é humano e quem não é. Dentro deste parque, cada visitante pode participar de diversas aventuras em um mundo aberto, onde tu consegues interagir da forma que quiser com os robôs, que na série são chamados de anfitriões. Muitos pegam seus cavalos, que também são androides, e partem em missões de caça ao tesouro, perseguição de bandidos e outras coisas, mas alguns usam aquele espaço para extravasar seu lado mais perverso, macabro e batem, estupram e matam os robôs. Na série Better Than Us, isso também é explorado. No caso, as robôs são utilizadas para fins sexuais e no primeiro episódio já surge uma que tem uma tecnologia diferente, que ela aprende coisas e toma decisões sozinhas. Aí ela é bem empoderada e causa muito.

Muita gente argumenta que isso não é um problema, já que os anfitriões não são pessoas e que isso teria o mesmo peso que você matar personagens em um jogo, como a gente faz no GTA, Red Dead Redemption e vários outros. Tipo, deixar o pessoal sem escada na banheira do The Sims.

Só que eu queria saber o que vocês acham: pelo fato de um robô destes não ter consciência e nem memória dos fatos, já que na série a memória de cada um deles é reiniciada no final de cada dia (tipo Tamagoshi), é correto ou mesmo ético que a gente use eles como a gente bem entende?

Patrícia diz: Então, Nicolli. Como eu comentei com vocês em Off, foi até uma discussão aqui em casa com o meu cônjuge, o Rafa, que é muito difícil você falar, porque primeiro você tem que definir, e a nossa discussão chegou nesse ponto, o que é correto e o que é ético.

Nicolli diz: isso é um buraco sem fim.

Patrícia diz: Primeiro, vamos supor, pra mim, pensando no que é correto, e aí eu olho o correto como algo subjetivo, e aí eu e ele começamos a discordar e no final a gente não chegou a nada. A gente não conseguiu definir e a gente não chegou numa concordância do que era correto e nem ético. Pra mim, eu não consigo ver como algo correto, nem ético o que eles fazem. Eu não sei o que vocês acham.

Igor diz: Eu não sei se o ouvinte viu a série WestWorld, os personagens, eles não usam o termo androide em momento algum, a gente está usando aqui para quem não viu a série entender do que a gente está falando. Os androides, vamos chamar de robôs, eles têm uma aparência natural humana, inclusive eles são feitos pra isso, quando os participantes atiram eles até sangram. É claro que é um sangue artificial e tudo, só para o show do parque, mas ele tem todo esse aspecto, ele tem essa aparência, atitude, os trejeitos, mais robótico, os movimentos, aquela sutileza dos movimentos das mãos (a gente sabe que esse movimento é difícil de digitalizar, fazer tocar as pontas dos dedos no polegar é algo extremamente complexo, tanto que a gente é a única espécie que consegue fazer isso da forma que a gente consegue), e eles fazem tudo isso. Então é um nível extremamente avançado de robótica e de inteligência artificial, mas, pelo menos no começo da série, eles não são conscientes. Eu não quero dar spoiler. Por outro lado, as pessoas que frequentam o parque, os humanos, enfim, os visitantes do parque, eles são humanos. Então é mais uma questão de você estar agredindo algo ali que tem uma similaridade muito grande com o ser humano. Porque a gente tem essa coisa, né, de você se conectar com uma coisa que parece um pouco com você, com o humano, né? A gente tem essa questão. Se fizer um robô que tem uma aparência absolutamente humana, ele vai criar essa reação nas pessoas, tanto o medo, o pavor por ser muito parecido, quanto aquela aproximação, aquele carinho, por ser muito parecido. Então, eu acho que isso diz mais a respeito da gente do que ao robô. Então, eu acho que é antiético e é errado, porque a máquina pode não ter consciência, mas você tendo essa consciência, você fez a decisão de agredir aqueles androides, aquelas máquinas. Então, nesse ponto, a gente está falando um pouco mais sobre você, sobre como você agiria.

Nicolli diz: É, eu acho bem louco isso. Eu tive uma discussão sobre isso num episódio do É pau, É pedra, sobre Black Mirror, que o pessoal queria me matar, porque eu era a doida sem coração da equipe, porque, eu só queria na verdade causar desconforto, porque eu acho que era sobre aquele episódio que é uma alusão a Star Treck.

Patrícia diz: USS Calister

Nicolli diz: Isso. Acho que era esse, que era uma discussão se aquelas consciências, que eram artificiais, se mereciam ser tratadas como humanas ou não. Como era, se aquilo que o cara fez era ético ou não. E daí depois disso teve um outro episódio com essa discussão. Black Mirror, né? Todos os episódios são assim. Aí teve essa discussão e eu comecei a levar mais para um lado: Não são seres humanos, é a mesma coisa que The Sims, é a mesma coisa que um Tamagoshi, só que um Tamagoshi é uma coisa super primitiva e tu não consegues se conectar com aquilo da mesma forma que se fosse um cachorrinho no The Sims. Até onde aquilo são pixels? Não são pessoas. As coisas são as coisas. Mas acho que é a mesma coisa que o Igor falou: não é a coisa em si, porque exatamente são robôs, são coisas, mas o que vai significar pra gente. O que aquela ação que eu estou fazendo está simbolizando pra mim? E que espaço isso vai tomar na minha vida? E o que isso significa? Se eu estou fazendo isso nesse parque com esses robôs significa que eu queria fazer isso com os seres humanos que estão perto de mim? O que que isso fala sobre mim? E esse lance de ética, nossa, eu não gosto muito de falar sobre isso, porque daí eu fico três dias pensando sobre isso, porque é muito tenso. Porque se você for pensar, Hitler tinha a ética dele. Eu acredito que na cabeça dele, talvez ele estivesse fazendo aquilo por algum motivo, tinha uma razão naquilo. E aí ele tinha a ética dele. É uma bosta? É, mas eu acho que é tudo muito relativo assim. Aquele cara dos Jogos Mortais, ele faz aquelas coisas, porque ele acredita que ele está realmente ajudando as pessoas, porque elas não dão valor pra vida delas, até que ele faz aquilo, porque ele quer que as pessoas percebam a merda que elas fizeram de não dar valor pra vida delas. É uma merda o que ele faz? É, mas tudo são éticas, são diferentes éticas. E aí tem toda a questão do social, do que a gente vai entender. Aí entra a questão da moral também. Eu sempre misturo o que é ética e o que é moral, mas eu acredito que é por aí. Por que que socialmente isso vai nos organizar ou não. E o que isso quer dizer pra gente enquanto sujeito ou não.

Igor diz: É interessante o seu ponto. É interessante que você citou um ponto do Hitler, porque “ah, ele achava que estava fazendo o certo”, é que ele e toda a ideologia eugenista e a ideologia nazista que se viu depois tinha essa característica de desumanizar aquelas minorias, sejam os judeus, sejam os ciganos, eslavos, todas aquelas minorias eles desumanizavam. E quando você desumaniza, você acha que eles não têm o mesmo nível de direitos que você.

Nicolli diz: Porque tu não te enxergas naquela coisa e aí é a mesma coisa de um episódio do Black Mirror que eles enxergam as pessoas como baratas. Vocês assistiram? Acho que eram baratas. É mais ou menos isso.

Patrícia diz: as baratas eram monstros, né? Igor diz: os termos que eles usam em inglês é cockroach (é barata). Tem aquele filme também Distrito 9, que é mais ou menos isso, eles desumanizam aqueles alienígenas e tal. Então é muito essa questão. E a gente está caminhando no sentindo oposto: a gente está tentando humanizar máquinas e essa pesquisa de consciência artificial que é o tema do episódio hoje fala bastante disso daí. A gente vai discutir bastante e a gente quer saber também a opinião dos ouvintes depois. Galera, vamos mandar isso daí. Mas enfim…

Consciência

Igor diz: Por mais que seja interessante, o objetivo desse episódio não é para falar dessa série de ficção necessariamente. Na verdade, até começou com essa ideia, mas a gente acabou expandindo bastante e vamos falar de um assunto mais geral que é Consciência Artificial. Só que para a gente falar de consciência artificial a gente tem que entender o que é consciência artificial, inclusive a gente citou isso lá no episódio 4, quando a gente falou de inteligência artificial e trabalho e falou um pouco sobre o estado atual, como a inteligência artificial é e tal, e lá naquele episódio a gente falou que no futuro a gente ia abordar a consciência artificial. E o futuro que a gente prometeu chegou e a gente vai falar disso hoje aqui. Só que antes da gente falar de consciência artificial, existem campos que a gente tem que entender melhor, desenvolver na ciência, e a gente tem várias áreas de filosofia a neurociência que estão envolvidas nisso, a gente precisa entender melhor o que é consciência de uma forma mais geral: consciência humana e, é claro, depois expandir isso para outras formas de consciência. Para a gente aí sim trabalhar de fato com a consciência artificial.  Vamos primeiro falar e entender o que é consciência.

Patrícia diz: Esse conceito de consciência envolve algo até bem mais primitivo, algo que a gente sente, mas que é difícil de explicar. E aí a gente até pede para o ouvinte refletir aqui com a gente. Se eu perguntar “quem é você?”, o que você responde? Provavelmente você vai falar o seu nome, a sua profissão, talvez onde você trabalha, onde mora, onde estudou, onde nasceu, etc. Só que será que isso é de fato a resposta dessa pergunta? 

Deixa eu perguntar de uma forma diferente então: “o que é o ‘eu’? O que define o seu ‘eu’?” É a sua aparência física? Isso a gente já consegue descartar, já que se você sofrer alguma alteração física, você não deixa de ser você. Se você mudar de peso, se passar por um transplante, ou amputação, ou qualquer outra coisa assim, ainda você vai continuar sendo você. Correto?

Se o “eu” não está relacionado com a sua forma física, então se eu fizer uma cópia sua, um clone, que vai ter toda a sua memória, sua capacidade intelectual, vai ser você em uma cópia. Ela será você também? Você viverá em dois corpos? Ou mesmo digamos que antes de morrer você transfira essa memória para outro corpo, você continuará vivo neste corpo ou ele seria uma pessoa diferente?  

Nicolli diz: Essa é uma pergunta complexa e a gente não vai aqui trazer uma resposta, mas vai deixá-la no ar (olha, nesse episódio, várias coisas no ar). A gente quer muita interação dos ouvintes, então a gente quer que vocês pensem a respeito e mandem comentários sobre o que vocês acham sobre isso. Só que uma coisa que a gente precisa fazer é quebrar o mito de que a consciência ou mesmo essa coisa que a gente chama de “mente” é algo separado do cérebro. Sem entrar em questões religiosas, não é este o ponto, acreditando ou não que exista uma alma, biologicamente o que chamamos de consciência é definido por uma série de reações químicas cerebrais que a ciência entende melhor a cada dia. (Gente, o pessoal do meu grupo de estudos vai comer o meu c&&).

Igor diz: Mas o que a gente chama de mente acontece no cérebro.

Nicolli diz: É, mas é que a gente entende que o jeito que as pessoas falam sobre isso traz uma visão muito médica e de que a gente só legitima as coisas que a gente pode ver, os neurônios, coisas químicas; e as coisas que acontecem e que não podem ser explicadas dessa forma ou caso não conseguissem ser, como se isso não tivesse valor, sabe? Como se nós sendo sujeitos, só sendo sujeitos, só vivendo como a gente vive, pensando e nos relacionando, não tivesse uma validação se não passar pela ciência. É mais como uma forma de resistência assim do que… A gente entende que realmente tem essas coisas do cérebro, mas é que esse discurso bate muito assim… Foucault, meninas!

Agora, voltando, eu entendo muito que a nossa relação enquanto a gente percebe nosso corpo no geral faz muita diferença em como a gente tem consciência. Se a gente trocar de corpo, a gente vai se enxergar de uma outra maneira, a gente vai se comunicar com o mundo de outra maneira, e aí a gente já vai ter uma consciência diferente.

Mas o que a gente sabe até o momento? Existem diversos estudos a este respeito e aqui nós nos baseamos em alguns deles. No caso, em um estudo feito pelo linguista Ray Jackendoff, da Tufts University e pelo filósofo Ned Block, da Universidade de Nova York. Nos baseamos também no livro “Como a Mente Funciona” do neurocientista Steven Pinker, da Universidade de Harvard e na Teoria da Consciência de David Chalmers e na refutação desta teoria pelo filósofo Daniel Dennett. 

Quando a gente fala de consciência, a gente pode resumir em dois conceitos principais. Primeiro, tu podes entender consciência como o conhecimento que a gente tem de nós mesmos. É aquela sensação de saber diferenciar tudo o que é externo ao que é interno e saber se reconhecer quando ouve a própria voz, ou vê o seu reflexo no espelho. É saber a diferença entre o outro e tu mesmo. É saber o seu lugar no mundo. Um bebê às vezes ainda não tem essa noção. Ele não consegue entender o que é ele e o que é a mãe e que não são a mesma coisa. E aí as partes do corpo dele são estranhas, ele entende que o seio faz parte dele. Quando um bebê fica olhando para as próprias mãos, ele não sabe que aquelas mãos são dele ou mesmo os pés. Então ele vai aprendendo isso. Por isso um bebê se distrai tanto brincando com as mãos. Ele começa a perceber que consegue controlar aquela coisa estranha com vários dedos e ele também fica surpreso quando morde o pé e sente dor. Pensando nisso, um bebê ainda está com a consciência em desenvolvimento. Estudar como esse processo acontece ajuda os cientistas a desenvolverem isso artificialmente em uma máquina.

Outro ponto interessante sobre a consciência é que ela não é tudo o que está no cérebro. Tu podes até falar sobre o que está ouvindo agora, lembrar do dia em que ficou mais feliz, do filme que viu ontem, mas não consegue calcular a velocidade que seu sangue percorre as suas veias ou saber quais enzimas estão sendo liberadas agora para ajudar na sua digestão ou qual a quantidade de cada uma, se o seu nível de açúcar está alto ou baixo, se precisa produzir mais adrenalina ou endorfina. Enfim, existem funções que o seu cérebro controla ou mesmo que ele monitora, mas que não fazem parte da consciência. Isso é o pesadelo da pessoa ansiosa, que a gente não pode estar controlando tudo que está acontecendo. E o que diferencia uma coisa da outra é ainda uma pergunta sem resposta.

Patrícia diz: é, uma pessoa ansiosa realmente não controla o nível de adrenalina que ela fica de vez em quando, né? Impossível. Gostaria de controlar.

Igor diz: É, inclusive, no final, nas minhas recomendações, tem uma que tem a ver com uma coisa que ajuda com ansiedade.

Nicolli diz: Meu sonho, é ter assim, na minha visão, que nem em jogo, sabe, aparecer todos os meus níveis de tudo para eu ter o tempo todo controle disso, mas eu vivo que nem o RPG que a gente está jogando, que a gente não sabe quanto que a gente tem de vida.

Patrícia diz: E isso é mais complexo ainda. Vamos pegar por exemplo o ato de dirigir. Quando você está aprendendo, tem que prestar atenção em cada detalhe e a menor distração você acaba errando. Só comentar o caso da menina que no primeiro dia quando ela pegou a carta [de condução], em Franca, ela deu PT [perda total] num carro da polícia. Ela não prestou atenção.

Igor diz: Ela passou na prova? Ah, ela já tinha carta, né?

Patrícia diz: Era o primeiro dia, ela pegou a carteira provisória, pegou o carro e no primeiro dia ela deu PT num carro da polícia. Esse tipo de erro é o que acontece normalmente aqui na região. Depois que você domina todas as técnicas, dirigir se torna uma coisa automática, é como se aquilo fosse desconectado da consciência. Não é, mas é como se fosse. E isso tem uma razão muito simples de ser. O nosso cérebro tem uma capacidade limitada de informações que ele consegue processar ao mesmo tempo, por isso ele prioriza umas e deixa outras acontecendo em segundo plano até que você precise daquela informação para algo mais importante como, por exemplo, sobreviver. 

Quer ver um exemplo? Ou melhor, ver não, ouvir, né? Afinal isso é um podcast. Bom, mas vamos ao exemplo. Imagine que você está sentado em um local movimentado, tipo um aeroporto ou uma rodoviária, e você está lendo um livro. Aí alguém fala com você ou mesmo o sistema de som anuncia que seu portão de embarque mudou. Você está tão concentrado no livro que não escuta quase nada. Não há nada de diferente no seu ouvido. Ele não tem uma membrana que se fechou e ele não foi desligado. Ele captou as ondas sonoras do mesmo jeito que sempre faz. O que aconteceu então? O que aconteceu é que o cérebro decidiu ignorar aqueles estímulos. O seu livro estava muito mais interessante.

Só que aí um alarme dispara e de repente seu cérebro muda a atenção do livro para o mundo à sua volta. Por quê? Porque um barulho alto pode indicar perigo, então ele, o cérebro, preparou seu corpo para aquela situação. Seu corpo foi inundado de adrenalina, seus pulmões se encheram de ar para prover mais oxigênio para suas células caso você precise de energia para correr. Podem ser zumbis (rs). Seu coração disparou para que esse oxigênio, a glicose e outras substâncias cheguem mais rápido às suas células. Enfim, seu corpo reagiu da mesma forma que o corpo de uma zebra reage quando está distraída bebendo água e, de repente, escuta um barulho que pode ser de um leão correndo na savana.

Nicolli diz: minha colega que se formou comigo em psicologia agora está estudando neurociência e ela descobriu essa informação de que quando tem um disparo de um barulho muito alto, acontece não sei o que, que parte do nosso cérebro e blábláblá. Aí, quando ela está dando palestra, ela começa sempre com um tom de voz normal, aí ela vê que as pessoas estão com tédio, ela dá uns berros, ela chega perto da pessoa e ela dá um berro e quase mata a gente. É exatamente desse jeito, eu me sinto como essa zebra. E ela acha que descobriu a roda das palestras. Ela fica assustando seus expectadores (rsrs).

Igor diz: Eu não recomendo isso, mas uma coisa que eu faço nas minhas aulas, baseado nessa técnica, que eu aprendi na época na faculdade de medicina, um professor de neurologia comentou isso e quando eu comecei a dar aula eu comecei a usar essa técnica, eu altero o volume da voz e uma coisa que eu faço também é às vezes, dependendo do tamanho da aula, às vezes tem um conteúdo um pouco mais teórico ou um pouco mais complicado, eu deixo de propósito (claro que as pessoas não sabem que é de propósito), mas eu deixo cair uma caneta, cair alguma coisa no chão. Isso dá uma despertada, eu pego e aí eu acabo utilizando aquilo como material para a própria aula. Pego a caneta e uso aquilo como exemplo e tal. Eu tento sempre usar objeto, mostrar. E outra técnica que a gente usa é sempre pedir opinião, pedir para os alunos participarem, que aí você quebra essa linearidade monótona da fala e tal. Essas coisas ajudam.

Nicolli diz: eu começo a dar uns berros no podcast?

Igor diz: Não, isso daí não. O ouvinte vai prestar atenção, mas vai sair traumatizado. A gente podia colocar uns gritos no meio do episódio.

Nicolli diz: de cabra

(risos)

Igor diz: bota um coelho gritando.

Patrícia diz: eles não fazem barulho.

Igor diz: Você que não sabe

Patrícia diz: o máximo que eles fazem é bater o pé muito forte quando eles estão bravos ou com medo. É muito forte. Mais forte do que quando a gente bate o pé. É muito bizarro.

Igor diz: Nossa! Interessante.

Patrícia diz: E o que isso tem a ver com a consciência? Bom, uma das diversas teorias sobre consciência diz que ela é uma alternância entre diversas tarefas entre um estado mais automático e um estado mais prioritário. Segundo essa teoria, a consciência seria uma combinação dessas duas coisas, um espaço entre dois estados e o hipotálamo e a amídala (a do cérebro, não a da garganta) teriam um importante papel no balanço entre essas coisas. Tanto é verdade que pessoas com lesões nessas regiões possuem muitas vezes dissociações que alguns neurocientistas entendem como uma perda parcial da consciência.

A gente não quer fazer este um episódio sobre a consciência humana em si, mas é importante falar disso para entender como uma consciência artificial poderia ser possível. Isso inclui até mesmo reconhecer o que é um ser consciente para que a gente possa um dia testar se de fato uma inteligência artificial está ou não consciente. Para isso, a gente precisa inclusive responder a uma pergunta sobre a qual ainda não existe consenso: os animais têm consciência? A gente não vai entrar muito neste ponto para este episódio não ficar longo demais, mas existem pesquisadores como David Chalmers que acreditam que existem diversos graus diferentes de consciência, desde a mais simples até algumas mais complexas. 

Lembra no começo que a gente falou que reconhecer o próprio reflexo no espelho é uma propriedade da consciência? Então, outros animais como vários primatas, elefantes, golfinhos e um ou outro tipo de ave, conseguem se reconhecer ao se olhar no espelho. Eles sabem que aquela imagem é deles mesmos. Só que essas espécies não conseguem, por exemplo, desenvolver a ciência, a filosofia, escrever poesia ou gravar podcast. Ou seja, pode ser que falte a elas algo fundamental na consciência que é o pensamento abstrato, mas saber que talvez exista um caminho na evolução que possibilitou o surgimento de formas superiores de consciência possa nos ajudar a produzir esse mesmo efeito de maneira artificial.

Tem muitas pessoas que não tem pensando abstrato e conseguem se reconhecer no espelho [ironia]. Igor diz: pois é.

Inteligência Artificial

Igor diz: Então a gente falou um pouco dessa parte teórica. Tudo isso pra gente entender, como a Patrícia falou, como a gente vai chegar numa consciência artificial. Só que quando a gente fala de consciência artificial, e aqui, que fique claro, a gente não está falando de uma coisa que vai acontecer amanhã. A gente está falando de uma coisa que pode acontecer num futuro de médio a longo prazo. Tem gente que é muito otimista e fala que em 10 anos isso vai acontecer. Tem gente que fala que isso vai demorar 30 anos ou mais. Tem diversas estimativas e a gente vai falar sobre isso um pouco melhor depois. Mas é extremamente difícil saber quando é que isso vai acontecer. Primeiro que quando as pessoas falam que isso vai acontecer em tantos anos ou que a gente vai chegar em Marte em tantos anos, muitas vezes isso é um chute. Ou esperanças. É muito difícil a gente saber porque o crescimento da tecnologia segue uma lógica exponencial, não segue uma lógica aritmética simples. O que eu quero dizer com isso é basicamente o seguinte: a evolução que a gente vai ter da tecnologia de 2020 até 2030, por exemplo, 10 anos, ela é absurdamente muito maior do que o desenvolvimento da tecnologia de 2009 a 2019. Se o ouvinte parar pra pensar, em 2009, pensa no que a gente tinha em termos de tecnologia. Depois pensa em 2019. É um salto absurdo. Esse ano, por exemplo, a gente teve hamburguer artificial feito em laboratório, que eu provei e ele tem o meu gosto, textura, tudo, de uma carne normal, bovina mesmo. Tecnologia em todas as áreas.

Nicolli diz: mas ele é feito de quê?

Igor diz: São todos de proteínas vegetais, mas tem todos os nutrientes de uma carne. É muito doido.  Aqui eles chamam de possible burguer. O Burguer King está começando a fazer hamburguer com ele. É uma pesquisa que já está rolando há alguns anos. E tem pesquisa de tecnologia que aconteceu e que está surgindo assim do dia pra noite. Tem coisa que você nunca ouviu falar e vira uma febre e tal. 2009 pra 2019, foi um salto! Agora você pegar, por exemplo, 1990 pra 2000, o salto foi muito menor. Então esse crescimento ele se torna cada vez mais exponencial. O conhecimento tecnológico que a gente tem hoje, por exemplo, em 2 anos, é equivalente no passado a 15 anos. Então quando a gente fala 10 anos parece muito tempo, mas o salto tecnológico é gigantesco e a gente não sabe, por exemplo, que amanhã pode ter uma descoberta que vai revolucionar tudo e que vai acelerar esse processo. Aí a gente vai ter uma inteligência artificial ou uma consciência artificial mais avançada, ou forte ou muito mais rápida. É tudo uma estimativa e a gente não sabe. Mas especialistas falam entre 10 e 30 anos.

O que a gente também não sabe é o caminho que a gente vai percorrer até atingir esse objetivo de chegar a uma consciência artificial. Mas a gente tem o conhecimento de alguns desafios que a gente precisa vencer até chegar lá e eu vou falar um pouco disso aqui também episódio. Uma possibilidade que existe é que a Consciência Artificial seja uma evolução natural da própria Inteligência Artificial. O que eu quero dizer com isso é que a Inteligência Artificial vai ficar cada vez mais avançada até que um dia ela vai alcançar um estágio que muita gente chama de estágio do “Despertar” (no inglês é awakening), que ela vai acordar e ela vai se perceber como indivíduo. Ela vai estar consciente. Ela vai ter de fato consciência. Eu só estou me controlando para não dar um baita de um spoiler de West World. Se bem que com esse meu comentário eu acho que eu acabei de fazer isso.

Nicolli diz: No Better Than Us isso acontece no primeiro episódio, então, é um exemplo melhor ainda.

Igor diz: Isso. Better Than Us, uma indicação que eu acho que é do episódio anterior. É uma série e tem na Netflix.  

Então, neste ponto, a inteligência artificial ela vai evoluindo até um ponto em que ela se torna consciente. Então é uma possibilidade. Então, mais uma vez, ouvinte, tenha paciência que a gente vai falar de todos esses assuntos aqui.

Só que aqui eu estou falando de Inteligência Artificial e a gente abordou o que é inteligência artificial e alguns tipos ali brevemente. Eu digo brevemente, porque a gente vai ter vários episódios em que a gente vai abordar de forma mais profunda específicos aspectos de inteligência artificial. Como hoje vamos falar de consciência artificial. Vai ter o dia que vamos falar de Machine Learning, vamos falar de rede neural etc.  Mas vamos falar um pouquinho dos tipos de inteligência artificial que a gente comentou no episódio 4. Uma espécie de revisão. O que a gente tem hoje em dia? O que está acontecendo e funciona é o que a gente chama de “Inteligência Artificial Restrita”. Tem gente que chama de “Inteligência Artificial Específica”. É a mesma coisa. E esse tipo de inteligência artificial ela é aquela onde a AI, ela é usada para desempenhar uma tarefa específica. Essa tarefa pode ser, inclusive, complexa. Ela não precisa ser simples, mas ela é específica. Então você pode ter uma inteligência artificial que vai dirigir um carro, uma outra que vai jogar uma partida xadrez ou uma partida de Go… essas coisas que a gente também comentou no episódio 4.

Só que imagine que eu tenho, por exemplo, um robô. E esse robô tem um determinado grau de inteligência, só que ele foi desenvolvido para uma tarefa específica. Ele foi feito para jogar xadrez comigo, só que aí o robô é muito inteligente e eu acabei ensinando-o também a abrir a porta quando eu chegar, às vezes eu não sei onde o celular está e aí ele consegue localizar o meu celular, enfim, algumas coisas pequenas. Só que esse robô ele não sabe a coisa mais importante que ele deveria saber fazer: que é fazer café. Se o ouvinte lembrar dos filmes de ficção, na grande maioria, sempre que eles fazem um robô muito inteligente, ele sempre acaba fazendo café. Normalmente, a primeira coisa que ele faz é fazer café. Seja em Black Mirror, que a gente tem o episódio de White Christmas, que no final do episódio o que ela acaba fazendo é café. Claro que não é a única coisa que ela sabe fazer, mas ela faz café. Seja em De Volta para o Futuro, no comecinho do filme, que não é bem um robô, mas umas maquininhas que o Dr. Brown faz, no final ela está ali fazendo café, além de colocar comida pro cachorro e outras coisas. Na série Better Than Us, que a Nicolli citou também, a Alicia, que é a inteligência artificial avançada lá, ela também faz café. Todos os esforços dessas pessoas esses anos todos é pra fazer café melhor ou de uma forma automática, que ele não precisa estar envolvido. É basicamente isso. Inclusive até série que não tem a ver com isso. Se você pegar, por exemplo, o Breaking Bad, quando eles estão naquele laboratório superdesenvolvido que o Gus Fring fez, eles pegam aqueles equipamentos e eles fazem… café! Café perfeito, mas é café.

Nicolli diz: eu lembrei daquele desenhinho animado, acho que era família Jetsons, que tinha uma robô que trabalhava pra eles e ela fazia café.

Igor diz: Sim, Jetsons. A Rose. Tá vendo? Eu começo a achar que a nossa função pra fazer tudo isso, gente, é pra fazer café. [ironia]. O povo veio aqui no Brasil pegar ouro, cana e plantar café. E a gente não mudou as nossas prioridades.

Então vamos voltar lá pro meu robô. Digamos, então, que eu queira que ela faça café. Aí eu chego pra ele e falo: “Oh, Sr. Robô, faz café pra mim, a cafeteira está lá na cozinha, eu quero que você use água mineral pra fazer o meu café, que eu tenho um certo nível de frescura. Pega o filtro de café e o pó de café que estão no armário e faz o café pra mim”.

Beleza. Só que eu não falei pra ele o que que é uma cafeteira, o que que é um filtro de café. Ele pode até saber o que é água, porque ele molha as minhas plantas, mas ele não sabe a diferença de uma água normal e uma água mineral. Ele não sabe como é que liga a cafeteira. Tem que ligar a tomada? Não tem que ligar na tomada? Como é que eu faço? Quanto tempo deixa? Será que a cafeteira liga sozinha? Qual a quantidade de pós de café que coloca? Qual a quantidade de água? Enfim… ele não sabe nada disso. Mas o que é que ele faz pra poder aprender? Ele faz o que todo mundo faz. Ele vai lá no Youtube (o meu robô) e vê vídeos de como fazer café. E aí tem um monte de vídeos de como fazer café. Aí ele vê lá que a cafeteira que o cara está usando é diferente da minha. Ele vai demorar um tempo para poder aprender o que é uma cafeteira, aprender todo o processo pra fazer café. Mas ele vai conseguir eventualmente fazer. Só que o acontece nesse ponto é que os robôs aprendem com milhares ou milhões de tentativas e erros (a gente está falando aqui robô numa forma geral, mas não precisa ser fisicamente robô. Pode ser um Software, pode ser uma). E com tentativa e erro ele chega ao final, quando ele finalmente consegue acertar. Só que nesse processo de tentativa e erro, tem um determinado momento em que eu vou ter que tomar um café que foi feito com terra do vasinho de planta, água tirada da privada, enfim… Ele vai errar, porque ele vai estar explorando a casa ali. Até um dia em que ele vai de fato acertar e eu vou conseguir mesmo tomar meu café.

E aqui entra uma outra discussão que eu não vou entrar, dizem que a forma mais interessante de consciência artificial no futuro é a parceria entre consciência e inteligência humana e consciência artificial. Inclusive tem gente que nem usa o termo inteligência artificial, usa o termo inteligência aumentada. É um termo comum hoje em dia. Pra mim é um termo mais ‘Marketeiro”. Mas a ideia é interessante, que é você usar a inteligência artificial para ajudar a inteligência humana.

Imagina que um robô que foi feito para jogar xadrez, abrir porta e achar celular de repente ele começa a fazer uma coisa para a qual ele nunca foi treinado, isso é um tipo de inteligência artificial mais avançado. Um dia vai chegar a chamar de inteligência artificial geral. Algumas pessoas chamam de inteligência artificial generalizada, mas é a mesma coisa. E que é basicamente uma inteligência artificial que é capaz de fazer várias tarefas tão bem quanto qualquer humano. Neste ponto, a gente já estaria meio que se tornando obsoleto. Inteligência Artificial Geral ainda não existe.Ela é uma teoria. Tem muito conceito sendo desenvolvido, mas ela ainda não existe na prática.

Tem um outro grau de inteligência, mais avançada que esta, que são aquelas inteligências artificiais que elas são melhores do que a gente em todos os aspectos. Tudo que a gente faz, elas vão fazer muito melhor. Essas são as Super Inteligências Artificiais (Super IA ou Super AI). Neste ponto, quando a inteligência artificial passar a humana, a gente vai passar uma linha, uma fronteira, que a gente chama de Singularidade. A singularidade é basicamente esse ponto onde a inteligência artificial vai ultrapassar a inteligência humana. Inclusive, lá no nosso blog (olha aí o jabá), eu publiquei um texto chamado O fim da humanidade, em que eu exploro um pouco dessa possibilidade, qual poderia ser a consequência para o mundo, quando a gente chegar nessa superinteligência artificial, quando a gente ultrapassar a singularidade. Dá uma olhada no Blog lá, nos nossos textos.

Continuando aqui, o que não é consenso é se as máquinas vão atingir esse estágio de singularidade antes de se tornarem conscientes ou depois de se tornarem conscientes. Algumas pessoas acham que uma máquina só vai ultrapassar a singularidade (só vai se tornar mais capaz e inteligente que a gente) se ela se tornar consciente. Ou seja, ela primeiro tem que se tornar consciente e aí isso vai ser o pré-requisito final para ela superior, para ela se tornar uma Super Inteligência. É como se a consciência fosse um pré-requisito para que a singularidade acontecesse.

Outras pessoas acham que ela precisa primeiro passar pelo processo de singularidade (ou seja, ela precisa se tornar mais inteligente que a gente) para depois se tornar consciente. Tem essas duas correntes de pensamento. Eu, particularmente, não sou isentão, mas estou um pouco no meio desses dois caminhos. Eu acredito numa terceira possibilidade. São muitas hipóteses ainda. A gente não tem certeza de nada ainda, porque esse campo está no início do seu desenvolvimento. Mas eu acho que a consciência é um desafio mais complexo do que a Super IA. Ele é um processo quase que paralelo à inteligência. Pode ser que algumas máquinas tenham consciência antes de atingir a singularidade, como outras que passem da singularidade sem ter consciência. Por exemplo, uma máquina que vai executar uma tarefa extremamente inteligente, mas não consciente. Eu acho que os dois processos podem acontecer em paralelo, dependendo de cada máquina e do contexto em que ela está inserida, das informações que ela tem etc. E pode ser que a gente desenvolva uma inteligência artificial consciente e que a gente nem fique sabendo disso. Pode ser uma inteligência artificial consciente que está operando uma máquina, mas não tem uma forma de comunicação, não tenha uma voz, não tem uma forma de comunicação com a gente. Consciente, mas “em coma”. Inclusive, a gente já falou bastante de Black Mirror e eu recomendo um episódio específico que se chama White Christmas, que fala um pouco disso. S eo ouvinte não assistiu, assista lá e depois nos fale o que achou.  Esse é inclusive o problema de a gente desenvolver uma inteligência artificial e não saber que ela é consciente. Porque se ela for uma inteligência artificial com muito acesso a muitas coisas e, ao mesmo tempo, que não seja muito nossa fã, isso pode ser um problema. Mas pra saber se ela é consciente ou não a gente precisa descobrir como é que a gente sabe se alguma coisa além de nós humanos é consciente.

Medindo a Consciência

Nicolli diz: Essa é uma boa pergunta que já foi pensada há algumas décadas. Lá no episódio 4 a gente citou o Alan Turing e um teste que ele elaborou, chamado Teste de Turing. Esse teste consiste basicamente em uma pessoa conversar com uma máquina sem saber que ela está conversando com uma máquina, no caso seria por mensagem de texto, e essa pessoa então não seria capaz de perceber que está falando com uma máquina. Beleza, todo mundo já está cansado de saber isso. Será que o que é mais interessante é a proposta de que um teste de Turing real seria aquele feito nos dois caminhos? Ou seja, que a gente deveria fazer o teste de Turing numa máquina, mas que também essa máquina deveria fazer um teste de Turing com a gente. Hein? Como é? Como assim, Nicolli? Calma

Olha só. Não o único, mas um pré-requisito de uma máquina chegar à tão esperada consciência artificial não é apenas a gente conversar com ela sem conseguir distinguir uma máquina de uma pessoa, mas também que essa máquina converse com a gente e saiba que a gente é uma pessoa. Que nós somos uma pessoa. E eu não sei se eu sou uma pessoa? Você é um robô?

Patrícia diz: Você é uma pessoa?

Igor diz: Eu não sei, mas os twittes do Carluxo não passariam no teste de Turing.

Patrícia diz: Não, não mesmo.

Nicolli diz: Toda vez que eu vou responder alguma coisa que pergunta “Você é um robô?”, eu começo a ficar nervosa, que vai que eu sou um robô e aí começa a aparecer aquelas coisas “clique na imagem que aparece um carro”. Aí eu já começo: “Será que eu estou fazendo certo? Será que eu sou robô? E se eu fosse robô eu faria certo? Será que eles não estão subestimando os robôs?”

Ficou confuso? Vem comigo então que a gente vai entender isso melhor. Pensa comigo: como tu sabe que tu és consciente? Ah, não sei, você pode apelar pro “penso, logo existo”, ou “se eu questiono a minha existência isso é prova de que eu existo e se eu penso que eu existo isso é prova de que eu sou consciente”. Beleza! Agora, como tu sabes que eu sou consciente? Tu não estás dentro da minha cabeça para saber o que eu penso (ainda bem, né?). Então, como tu sabe isso? É fácil. Tu entendes que tu és uma pessoa e tu entendes que tu és consciente. Então, já que tu também me vês como uma pessoa, tu logo inferes que eu tenho consciência da mesma forma que tu inferes que eu sinto dor, que eu posso sofrer, etc. Ou seja, tu tens empatia.

Ou seja, se uma máquina conversar com a gente e tiver essa mesma percepção, então esse é um bom indicativo de que ela é consciente. Então a gente vai ter que começar a assumir esse fato baseado nessa mesma premissa da empatia. E não vai ser fácil a gente saber o quanto das respostas da máquina são basicamente respostas programadas e o quanto são de respostas de fato conscientes. Se bem que a gente não sabe nem o quanto das nossas próprias respostas são programadas (olha que várias são, hein?). E eu não estou falando que vivemos em uma simulação, essa Teoria da Simulação a gente vai abordar em um episódio futuro. Talvez a gente esteja vivendo uma simulação.

Igor diz: Deixa eu só dar um spoiler desse episódio que a gente não gravou ainda: algumas pessoas acreditam que tem 99% de probabilidade de nós sejamos parte de uma simulação.

Nicolli diz: Eu acho isso.

Patrícia diz: Estamos na Matrix. Uhuuuu.

Igor diz: Pois é, que a gente está na Matrix. Mas a gente fala isso num episódio futuro.

Nicolli diz: É, né, o próprio sistema capitalista… Aí já começo uma crítica social. Não pode ver, né?

O que eu estou dizendo é que mesmo a noção de livre arbítrio é difícil de definir. O quanto do que a gente faz é de fato uma escolha consciente e o quanto é meio que determinado por uma construção social, predisposição genética, influência hormonal etc.? É complicado definir consciência por este critério ou mesmo avaliar o que é espontâneo e o que é programado.

Agora, se a gente tiver de fato avaliar se algo é consciente, além de definir o que é consciência, não seria também importante a gente entender do que a consciência é feita? Se a gente pensar em termos puramente biológicos, a gente já falou aqui que a consciência acontece no cérebro. Só que o “eu” não é o cérebro, a gente já falou isso aqui também. O “eu” é o entendimento que o cérebro tem de nós mesmos como indivíduo e do mundo à nossa volta, dos outros indivíduos e do nosso papel nessa rede. Biologicamente isso acontece no cérebro. Só que outras coisas também acontecem no cérebro que não são a consciência. Então, qual é a diferença? Se a gente olhar bem de perto, no mundo minúsculo onde quem manda são as leis da mecânica quântica, a gente vai ver que a matéria do cérebro da parte responsável pela consciência e o resto são feitas das mesmas partículas e subpartículas.

Daí eu pergunto de novo: qual é a diferença? Uma boa hipótese tem relação com uma coisa que a gente chama de padrão e interação. Digamos que eu estou analisando a água e eu quero ver se a água vai me molhar ou não quando eu pegar nela. Ué Nicolli, é claro que vai, é água! Será? Será que estamos sonhando? Será que é água? E se for vapor d’água? E se for água congelada? Para saber a capacidade da água de me molhar eu preciso saber em que estado ela se encontra. Só que se você olhar a água congelada, neve, líquida, vapor, é tudo H2O. Olha, presidente, o que eu sei! (risos). Aqui não é balbúrdia, a gente sabe o que é H2O. (risos). A diferença é como essas moléculas de H2O estão arranjadas, a densidade entre elas, viscosidade, o padrão.

Então, da mesma forma que não faz sentido a gente analisar o quão molhada uma única molécula de água é, não faz sentido analisar a consciência como um pedaço ou função separada do cérebro, mas o todo: o  padrão entre essas partes, a interação, etc. é o que diferencia a parte consciente do cérebro da parte mais “escondida”. Mas, depois que eu falei isso tudo, será que dá para medir a consciência igual a gente mede outras coisas como massa, velocidade, altura e volume?

Patrícia diz: Então, Nicolli, segundo alguns pesquisadores, dá sim. Esse é o caso, por exemplo do pesquisador Giulio Tononi, hoje diretor do Centro de Sono e Consciência na Universidade de Wisconsin. Ele criou um conceito chamado de “Teoria da Informação Integrada”, que é uma medida representada pela letra grega Phi. A gente inclusive vai deixar no poste deste episódio um link para a página onde você pode encontrar testes disso e diversos artigos científicos a respeito, inclusive o paper do Tononi que deu origem a este conceito em 2004.

Talvez um dia a gente faça um episódio específico sobre a Teoria da Informação Integrada ou mesmo um episódio do nosso Spin-Off, o Variância. Fica a dica: quem não conhece, vai ouvir porque está muito legal. Mas, voltando pra cá, resumindo, esse número Phi basicamente mede o quanto cada elemento de um sistema tem conhecimento de si e dos outros no ambiente. Inclusive, usando isso, eles conseguem em teoria medir no cérebro a consciência das pessoas acordadas com pessoas em sono ou mesmo em coma, sabendo se elas estão conscientes ou em estado inerte.

A ideia é que, com essa medida, um dia a gente consiga chegar num elemento que hoje é chamado de Perceptrônio, que é basicamente a menor unidade capaz de ter consciência, seja ela natural ou artificial. É igual a gente usar átomo como menor unidade da matéria, aqui claro sem considerar as partículas e subpartículas, ou a célula como menor unidade viva. E o perceptrônio, que a gente ainda não encontrou, mas estamos buscando através de vários estudos no cérebro, pode ser um conjunto de células ou mesmo de padrões de sinais elétricos. Uma vez que a gente encontrar isso, a gente então terá mais chances de reproduzir esse mesmo comportamento em máquinas. E aqui eu não vou entrar no conceito de Redes Neurais Artificiais já que isso a gente vai falar no futuro num episódio só disso. Então, esse Perceptrônio não é a mesma coisa que Rede Neural Perceptron, tá? Ah, e antes que eu continue, só pra aproveitar que eu falei de perceptrônio, eu vou também contar sobre outra unidade parecida que é o Computrônio, que é o menor elemento capaz de processar uma informação.

Caminho até a Consciência Artificial

Patrícia diz: Bom, seguindo na nossa discussão, eu vou fazer algumas observações aqui. Quando a gente falou agora sobre o que é consciência e se teria uma forma de aferir ou mesmo medir matematicamente a consciência, isso é importante por um motivo em especial. Se eu pedir para você ouvinte pensar em uma pessoa qualquer que você viu hoje na rua, alguém que você não conheça, só viu passar. Você não se comunicou com essa pessoa de nenhuma forma. Se eu perguntar se essa pessoa tem consciência, você vai responder que sim. Agora, se eu perguntar se os outros animais têm consciência, aí uns vão dizer que sim e outros vão dizer que não. Cachorros têm consciência? Gatos? Golfinhos? Zebras? Bom, eu não vou perguntar sobre coelhos, porque a resposta será sim (óbvio, eles que vão dominar o mundo, né, gente?). Mas, brincadeiras à parte, qual animal têm mais consciência? E agora? Entende que quando sai para outra espécie, mesmo que todos mamíferos, é mais difícil? E é difícil porque consciência é um conceito ainda tão subjetivo que a gente tem dificuldade de entender uma consciência que não seja a da nossa espécie. E se a gente tem essa dificuldade com outros seres meio que parecidos com a gente, ou seja, eles têm órgãos, eles comem, respiram, têm cérebro, coração, pulmão, etc., imagine então como é que a gente vai conseguir trabalhar com uma consciência que nem biológica é.

Além das coisas que a gente falou, existem outros assuntos que a gente precisa debater sobre o comportamento humano para sabermos como chegar até a uma Consciência Artificial. Eu vou dar um exemplo. Se eu te mostrar uma foto de uma paisagem qualquer e pedir para uma Inteligência Artificial descrever ela pra mim, ela pode falar sobre cada detalhe com precisão, mas se eu perguntar: “e como essa imagem faz você se sentir”, talvez ela não saiba o que responder ou nem entenda o real sentido dessa pergunta. Agora, se eu te mostrar a mesma foto, você pode até não saber que lugar é aquele, mas algum sentimento aquilo vai te provocar. E esse sentimento está relacionado com um monte de coisas que podem ser uma ordem genética, social ou de experiência e, nestes casos, entra aqui um outro conceito importante: a memória.

Quando você vê uma imagem qualquer, por exemplo, uma aranha, essa imagem provoca em cada pessoa uma resposta diferente. Alguns terão medo, outros terão curiosidade, outros vão lembrar do homem-aranha, alguns vão perguntar que tipo de pokemon é aquele (quem é esse pokemon? Lembrei agora), outros vão lembrar do Senhor dos Anéis, alguns vão até sentir fome (seria muito estranho, gente, então fujam dessas pessoas). Enfim, é uma reação que não será única, já que cada um terá uma reação baseada em uma série de experiências que você teve e que outros ao seu redor tiveram e te contaram. E tudo isso tem a ver com a memória.

Aí o ouvinte chega pra mim e fala: “ah Paty, mas até aí tranquilo, computador também tem memória”. Sim, tem, mas ela é completamente diferente da nossa. E aqui a gente vai quebrar mais um mito popular. A nossa memória não é uma reprodução fiel de um fato que aconteceu, ela é por um lado uma reprodução limitada do que aconteceu e ela também é uma reprodução deturpada do que aconteceu.

Como assim? Calma que eu vou explicar, só que bem brevemente para não ficar chato. O que acontece quando a gente vivencia alguma coisa é que aquela coisa chega até o nosso cérebro de diversas formas. Uma memória inclui informações visuais, sonoras, olfativas, de tato, ela envolve nossa reação baseado em memórias passadas, fobias, estado do nosso corpo (tipo: cansado, com fome, em alerta, com medo) … Enfim, uma infinidade de coisas, mas o que nosso cérebro guarda é apenas uma parte resumida disso. Só que, não bastasse essa limitação, a memória é bem volátil. Quando você se lembra de um fato, você não está se lembrando deste fato, mas da última vez  que se lembrou daquele fato e quanto mais você revive algum acontecimento na sua cabeça, maior a chance daquilo ser deturpado, exagerado, minimizado, parcialmente esquecido ou mesmo coisas que não aconteceram serem colocadas na sua memória e você nem se lembrar. Somos sempre uma NARRATIVA de nós mesmos, o passado não existe na nossa consciência, mas uma narrativa sobre ele.

Um exemplo clássico disso é quando a gente pergunta para as pessoas: “o que você estava fazendo no dia 11 de setembro de 2001 quando as torres do World Trade Center foram atacadas”? Muita gente responde que estava vendo Dragon Ball e se lembra de o desenho ser interrompido pelo plantão da Globo. Só que não estava passando Dragon Ball naquela hora. Essa lembrança é falsa, é quase uma fabricação coletiva. Ou seja, uma memória é algo imperfeito. E essa imperfeição ou mesmo esquecimento é uma parte fundamental de quem somos. Sem isso a gente nunca conseguiria seguir em frente depois de algumas perdas, medos etc. E só comentando um evento mais recente: é o caso do presidenciável Eduardo Campos, que, quando o avião dele caiu, umas das primeiras pessoas que deu entrevistas falou que ele estava pegando fogo, aí todo mundo começou a falar que viu uma bola de fogo no céu. E o avião não pegou fogo.

Igor diz: É, tem muitos exemplos disso, tem exemplos de filmes. Todo mundo lembra que o Luke Skywalker falou pro Darth Vader “Eu sou seu pai”, mas a frase é diferente. Por conta dessas memórias fabricadas as pessoas lembram bem disso.

Interessante isso que a Paty falou, mas numa máquina, como é que ia ser essa memória, já que a nossa memória ela é imperfeita? E aqui mais uma vez fica a recomendação de WestWorld, e o que eu vou falar aqui nem é tanto spoiler assim, mas essa série mostra muito bem essa diferença entre a memória humana e a memória da máquina. Eu estou chamando os androides e os anfitriões de máquinas pra simplificar. As máquinas não têm essa limitação ou essa característica que a nossa memória tem de ser deturpada ou de uma narração e não da memória em si. Então nessa série, quando um androide lembra de alguma coisa, ela não lembra igual a gente, como se fosse algo distante, como se fosse aquilo que aconteceu, mas você lembra assim meio nebuloso, meio vagamente. Não. Quando ela vai lembrar de algum fato, ela lembra de absolutamente todos os detalhes. Então, pra um androide nessa série, e a gente acredita que no mundo real seria assim também, quando ela lembra de alguma coisa, o lembrar de alguma coisa significa reviver aquele acontecimento. Então quando ela lembra de alguma coisa ela vai reviver todos aqueles momentos. Tanto que a própria noção de passado e de presente pra eles não faz muito sentido. É tudo presente. Inclusive tem uma parte, não é bem um spoiler, mas tem um personagem, não vou falar qual, pra diminuir a quantidade de spoiler, que ele pergunta “Isso é agora?” Porque ela não sabe se aquela experiência que ela está tendo, se ela está lembrando ou se de fato está acontecendo. É uma coisa muito doida. Só que, a princípio, esses androides não têm esse conhecimento, eles não sabem que existem essas coisas. Cada memória que ele está vivendo ele acha que aquilo está acontecendo pela primeira vez. Ele não sabe que é uma memória. Quando esses androides na WestWorld ultrapassam a singularidade, ou seja, quando eles tomam consciência de si próprios, de quem eles são, quem são os outros e a situação que eles estão ali como escravos, aí é que eles começam a perceber que existe memória e existem fatos presentes. Eles começam a perceber, apesar de não compreender de fato essa diferença, eles começam a perceber que existe uma diferença. E eu não vou continuar, se não vai dar um baita spoiler.

Então, a gente já entendeu que a memória é uma parte absolutamente fundamental da construção da nossa própria consciência. A nossa consciência e a nossa interpretação do mundo é muito baseada na nossa memória, nas experiências que a gente teve etc. Então o fato de as máquinas terem uma construção de memória bem diferente da nossa, também implica que elas terão uma consciência bem diferente da nossa. Se essa consciência vai ser superior ou inferior, ela vai ser diferente. Superior ou inferior é muito difícil a gente avaliar, até porque a gente teria que de fato definir o que significa uma consciência melhor e o que significa uma consciência pior. A gente não vai entrar nesse mérito aqui.

Só que antes de a gente se aprofundar mais nessa parte, eu quero trazer aqui outro ponto importante nesse debate de consciência. A gente está trazendo aqui vários pequenos pontos para compor esse quebra-cabeça da consciência. E o outro ponto importante é o da emoção, do sentimento. A nossa consciência também está intimamente ligada com a nossa resposta emocional aos fatos. E aqui eu incluo uma série de outras coisas como amor, propósito, desejo, medo, fobia, sentimento de preservação, ambição etc. etc. etc. Será que as máquinas terão isso? Será que máquina vai ter sentimento? Será que máquina vai ter fobia? Será possível uma máquina desenvolver uma consciência artificial sem desenvolver sentimento? Será que são coisas de fato independentes? E a gente pode falar de pessoas que têm menos empatia, por exemplo, os psicopatas. Será que estudar psicopatas nos ajuda um pouco mais a entender a consciência? Será que se a gente medir a consciência do psicopata ele vai ter uma medida diferente de uma pessoa não psicopatas? Será que as máquinas serão capazes de amar? De odiar? De sentir nojo, repulsa? Vai ter fobia? Será que uma máquina vai desenvolver até uma psicopatia, de repente? Ou o altruísmo? Essas são perguntas para as quais a gente não tem resposta ainda. A gente precisa entender essas questões se a gente quiser chegar a uma consciência artificial, principalmente se a gente quiser chegar a ela com algum nível de precaução.

Tem gente que acha que o desenvolvimento da emoção é importante nesse caminho da consciência. E aqui eu trago outra referência que é o filme Her, que é um filme muito legal. Sem spoilers, mas a evolução da consciência nesse filme está bem ligada ao desenvolvimento do amor, em especial do amor próprio. E depois aquele amor se torna uma coisa altamente transcendental, além da compreensão humana. Porque é uma consciência diferente, então ela vai desenvolver um amor diferente também. Se eu falar mais eu vou dar spoiler.

Um ponto que eu quero trazer aqui é o título desse episódio. Será que as máquinas vão sonhar? O ouvinte pode achar que eu estou viajando demais, mas vamos falar um pouquinho dessa questão. Pode até parecer ridícula que essa pergunta que eu estou fazendo aqui, mas você tem que pensar que, já que a única consciência que a gente conhece é a consciência humana, então você tem que partir do pressuposto da consciência humana para estudar a consciência artificial. Então, o sonho para nós ele tem uma importância fundamental. Ele é importante. Então a gente precisa de fato entender se isso vai ser importante ou irrelevante para uma máquina. Talvez a compensação da memória que máquina tem torne irrelevante o sonho. Ou talvez torne mais imprescindível ainda.

Eu vou pedir para o ouvinte agora imaginar que está numa praça, uma praça com um gramado e acabaram de plantar esse gramado. E aí as pessoas, para passarem de um ponto A para um ponto B, o caminho mais lógico é passar no meio do gramado, como se fosse uma diagonal.  E as pessoas vão passando e com o tempo vai se formando um caminho naquela grama ali. Aquela grama fica mais esparsa, um pouco mais espalhada, vai nascendo, até que vira quase como um caminho natural. As pessoas vão vendo e “ah, isso aqui é um caminho”. Fica mesmo quase que como fosse um caminho oficial. O nosso cérebro acontece mais ou menos a mesma coisa. A gente tem uma parte no lobo frontal do cérebro, que é responsável pelo julgamento de questão lógica, inclusive essa parte e menos desenvolvida em crianças, por isso que a criança tem mais dificuldade em fazer a separação entre fantasia e realidade. E isso no nosso cérebro adulto é bastante desenvolvido. Então a gente tem normalmente um caminho no nosso cérebro, nas nossas conexões, que as nossas sinapses executam para resolver determinados problemas. E esse caminho às vezes é um pouco limitante, porque a solução pra um determinado problema é encontrar coisas que você não pensou antes.

Quando você dorme e você está naquela fase do sono REM (não a banda, mas aquela parte do sonho, aquele ciclo), quando você está nessa parte que é a parte em que acontecem os sonhos, o que acontece é que essa parte do julgamento de lógica ele é parcialmente desligado. Por isso que no sonho é mais difícil você ter aquele sonho consciente, de você saber que você está no sonho. Eu tenho muitos sonhos conscientes, mas nem todos são assim. Então coisas absurdas, que no mundo real você olharia e falaria “cara, isso não faz sentido”, lá no sonho, normal. Tipo “Ah, um elefante cor de rosa voando”? Normal, tipo segunda-feira. Porque essa parte da lógica está desligada. Daí o seu cérebro está meio que livre para explorar outros caminhos. Por isso que às vezes, isso acontece muito comigo, você está com um problema que você não consegue resolver, principalmente um problema mais técnico, do trabalho ou da escola, alguma coisa assim que você não consegue resolver. Aí você vai dormir e você sonha com a solução. Aí no outro dia você tenta aquilo ali e dá certo. Isso é porque o seu cérebro explorou outras possibilidades. E isso é importante pro nosso aprendizado, pro nosso desenvolvimento e para a nossa consciência. Inclusive no sonho você testa possibilidades, você testa medos, você testa coisas que você testar no mundo real poderiam ser fatais. Então tem várias questões da importância dos sonhos que a gente tem que se questionar se isso também não seria importante no caso de uma consciência artificial.

Imagina que o sonho ele não existe ao acaso. A gente tem uma incrível fábrica de aprimoramento que se chama evolução. Que não foi inventada pelo Darwin. Ela existia antes. Não é tipo assim: não tinha evolução, aí de repente o Darwin chegou e “opa, a gente vai evoluir. Macacos, vamos lá!”. Não foi assim que aconteceu.

Então a gente tem esse incrível fábrica de aprimoramento, que a evolução vai num processo de tentativa e erro durante milhões de anos, vai vendo o que é mais vantajoso e vai criando seres mais adaptados para a realidade deles. E a evolução encontrou que o sonho é um caminho interessante para animais. Eu não tenho conhecimento de que não-mamíferos sonhem, mas a gente já fez vários testes escaneando o cérebro de diversas espécies de animais e vários animais (como macacos, cães e golfinhos) sonham, eles têm sonhos. Você consegue ver padrões de comportamento nas ondas cerebrais muito parecidos com o nosso, quando a gente está sonhando. Mas aí você pode pensar assim: “Ah, mas claro que Inteligências Artificiais não vão sonhar, elas não vão dormir”. Mas talvez elas precisem dar uma pequena reiniciada para não sobrecarregar, como a gente faz com o computador de vez em quando, e aí nesse processo ela passe por um rearranjo de alguns bits e isso daí seja alguma coisa parecida com o nosso sonho. Talvez elas tenham que atualizar um sofware e aí elas sonhem. Ou sonhem acordadas. A gente não sabe. Estão me tachando como louco, estou vendo umas pessoas aqui com camisa de força entrando no quarto. Calma, gente, não é bem isso. (risos). Mas são fatos que são importantes para a gente debater. Como são fatos muito no futuro, é uma coisa muito futurista, esse papo ele beira a maluquice mesmo. Mas são fatos muito relevantes, tem pessoas com pesquisas muito sérias em relação a isso aí.  

Mas voltando aqui pro planeta Terra (que, diga-se de passagem, não é plana),  vamos concluir então que, baseado em tudo o que a gente falou, não dá para prever se as máquinas conscientes serão melhores do que a gente (pensando nos nossos conceitos gerais do que a gente define como defeitos e qualidades, ou o que a gente define como atos aceitáveis ou não, pelo menos pessoas com o mínimo de decência). Então a gente não sabe se elas vão ser melhores do que a gente ou se elas vão simplesmente herdar os nossos defeitos e qualidades, e vão reproduzir aquilo. Eu não acredito nisso, pois já que elas vão ter um tipo de consciência diferente, elas vão ser naturalmente diferentes. E pode ser inclusive que esses nossos grandes dilemas e dramas do dia-a-dia sejam uma coisa absolutamente insignificante para as máquinas, talvez não façam nem sentido, seja uma coisa muito pequenininha. É como se a gente estivesse discutindo a filosofia das formigas, não faria sentido, seria muito irrelevante. Ou pode ser que não. Tudo isso, como eu falei, é só conjectura. Independente de quando isso vai acontecer, a gente precisa começar a pensar em alguns impactos e questões importantes sobre isso. Porque, digamos que na pior das hipóteses, no sentido para nós humanos, ou na melhor das hipóteses para quem está pesquisando isso, isso aconteça em 10 anos, e a gente perceba dois anos antes, em dois anos a gente não conseguiria discutir o que é necessário discutir, não conseguiria mudar leis  se fosse preciso mudar leis, ou ajustar a sociedade, então a gente sofreria muito com isso. Então se a gente começar a discutir agora, a gente consegue ter tempo de envolver toda a sociedade e se tiver que haver mudanças sociais e de leis, sendo muito otimista, e talvez até irreal, a gente consiga se adaptar melhor a essa mudança. Mas mudanças acontecerão, sim, se a gente chegar a essa realidade.

Ética e Direito

Nicolli diz: Então, isso é importante a gente debater antes que aconteça pra que a gente esteja preparado. Se um dia acontece algo como o que eu falei quando abri esse episódio e a gente acorda e descobre que existem máquinas conscientes. E aí, o que a gente faz? Elas terão direitos? Os direitos serão os mesmos que os nossos? Ou vamos tratá-las como escravas ou mesmo como tratamos animais, que tem direitos, mas eles são limitados?

E para tornar a pergunta mais complexa ainda, pense que quando eu falo de máquina consciente eu não falo só de robô. Pode ser um programa num computador, uma Alexa da vida. E então? 

Vamos pensar aqui na hipótese de elas terem direitos. Eles são os mesmos que a gente tem? Elas terão o direito de votar? De se candidatar a cargos públicos? De ter conta em banco? De casar? Será que o debate daqui a 50 anos será sobre a legalização do casamento entre humanos e máquinas? Eles poderão adotar crianças? Serão presos? Como você prende um programa?

Igor diz: A Alexa roubou um banco, desviou não sei quanto lá virtualmente. Como é que você vai prender a Alexa? Coisas complicadas.

Nicolli diz: Eu tentei formatar meu computador, eu acho que eu prendi ele.

Igor diz: Você reiniciou e ele voltou consciente.

Nicolli diz: É verdade. Eu abri alguma parte da consciência dele.

(risos)

Quanto mais direitos damos a eles, tu concordas que mais alguns de nós vão se sentir ameaçados? Se hoje tem gente que se sente ameaçada por que mulheres, negros e LGBTs querem quer direitos iguais, imagina esse povo quando o debate incluir máquinas? Vai ter com certeza grupos que vão lutar contra isso.

Existe um risco nisso tudo? Claro! Pense, por exemplo, que uma máquina possa receber pelo seu trabalho e investir esse dinheiro, ter uma conta, comprar coisas etc. Além das consequências sobre o nosso emprego que a gente falou bastante no Episódio 4, é de se imaginar que uma máquina, até mesmo por conseguir trabalhar mais rápido, melhor e por mais tempo, consiga juntar mais dinheiro. Então, depois de poucos anos, as grandes fortunas do mundo serão de computadores. Será que eles vão usar isso de forma tão ruim como os humanos usam, como ferramenta de poder e opressão? Ou podemos aprender com essas inteligências artificiais? Será que ainda vai haver capitalismo ou veremos o surgimento de um sistema econômico que nem foi imaginado ainda?

Do mesmo jeito isso pode acontecer com a política. Como eles são mais inteligentes e capazes (qualquer um, né?),

Igor diz: É, mas no geral, né?

Nicolli diz: Não estou insinuando nada.

Igor diz: Mas até um relógio é mais capaz que o atual presidente. Mas é um debate.

Nicolli diz: não estou insinuando não citei nada, é um debate, fica no ar.

Igor diz: Falou atual presidente, não falou de que país.

Todos dizem: É…

Nicolli diz: Até porque tem vários,

Todos dizem: É.

(risos)

Nicolli diz: Pode apostar que vai ter gente querendo que as máquinas governem. “Ah, elas são mais capazes, não tem interesses mesquinhos, não são do PT”, enfim, vários argumentos vão ser usados, mas isso nem importa muito se a gente der direito a voto para as Consciências Artificiais, porque aí com certeza elas serão maioria e poderão eleger quem quiserem. Nenhum candidato conseguiria se eleger sem o apoio das máquinas.

E eu sei que o ouvinte, se ele é consciente, está pensando agora que a gente ficou doido, mas essas maluquices são bem possíveis no futuro. E talvez nem adiantariam muito as leis que a gente faça, mas não quero aqui plantar um futuro muito mais distópico do que esse.

Inclusive, falando em distopia, muita gente acha que o desenvolvimento de uma Super IA ou mesmo de uma Consciência Artificial seria nosso fim. Existe, claro, essa possibilidade, mas aí a gente tem que pensar em outro ponto: propósito. Qual seria o propósito dessas máquinas? Hoje em dia é fácil a gente determinar o que uma Inteligência Artificial vai fazer e ela tenta executar essa tarefa que a gente mandou da melhor forma possível. Só que neste futuro de uma inteligência consciente, a maior probabilidade é que esses programas busquem a própria razão de sua existência, o seu próprio propósito. E isso é fundamental, porque dependendo do propósito das máquinas, isso pode ser nosso fim ou a nossa salvação.

Sem contar que pode ser que cada máquina encontre um propósito diferente da outra. Pode ser que tenha robô de esquerda, robô de direita, robô egoísta, robô fofo, robô ambicioso, robô com sociopatia. Que agora tem esse outro termo que se usa no lugar de psicopata, que eu não me lembro, acho que e sociopata.

Patrícia diz: acho que tem diferença entre psicopata e sociopata

Igor diz: Vamos de “sociopata”.

Nicolli diz: Na psicologia, eles não querem mais usar psicopata porque ficou um termo muito pejorativo. É tudo assim umas nóias. E “pata” vem de patologia, então seriam pessoas que têm patologias psicológicas. Enfim…

Voltando… De verdade, gente, é tudo uma especulação, não dá muito pra gente saber. Mas mesmo assim, a gente precisa começar a debater isso agora. Você, caro ouvinte, ou cara ouvinte, seja qual for sua área, pense em como isso pode afetar. Existe muito campo de pesquisa nisso, especialmente em direito, filosofia, neurociência, antropologia. Até mesmo na minha área, a psicologia. Não só para tratar as pessoas nesse mundo maluco, mas quem sabe meu futuro não é ser terapeuta de robô? Olha, o meu computador não está me aprovando por enquanto nisso. Bom, mas vamos voltar um pouco pra Terra agora e pensar: será que não dá para controlar essas máquinas? O que você acha, Paty?

Patrícia diz: Então, gente, é difícil saber. Muita gente diz que a gente podia usar alguma coisa como as Leis da Robótica do Azimov e, antes de debater isso, vamos então lembrar ao ouvinte o que é isso. Bom, nos seus livros de ficção, lembrando que ele é um escritor de ficção, então ele não tem e na época que ele escreveu não tinha tantos estudos assim sobre robótica, ele criou um conceito de Leis da Robótica cuja ideia era manter as máquinas sob controle. Eu vou resumir essas leis aqui pra vocês.

  • 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
  • 3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Mais tarde, o Asimov acrescentou a “Lei Zero”, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra mal algum.

Um adendo, já que a gente começou a falar o Azimovi, eu não lembro em qual episódio que eu indiquei, acho que foi bem no início, eu indiquei o Robôs da Alvorada. Em algumas edições os Robôs do Amanhecer, que tem dois robôs que eles têm consciência. E é muito interessante que um deles é um detetive que vai ajudar um detetive humano a desvendar um crime. Então fica de novo aí uma re-indicação, já que a gente está falando direto desse assunto.

Voltando…

Essas leis parecem o bastante, mas tem aqui dois pontos. Primeiro, elas são muito simplistas e a gente já tem casos de dilemas morais hoje em dia que não podem ser resolvidos com essas leis. Por exemplo, o famoso dilema envolvendo carros autônomos. Digamos que um carro autônomo se vê diante de suas opções: ou ele se choca contra um muro e mata os passageiros do carro, incluindo aí o dono dele; ou ele desvia, mas acerta várias pessoas numa calçada, salvando quem está no carro e, portanto, quem pagou por ele, mas matando bem mais pessoas. E aí? Como resolver isso com essas leis?

Segundo: mesmo que a gente chegue em um conjunto de leis perfeitas, a máquina superinteligente pode muito bem se reprogramar ou ignorar essas leis. Uma remota possibilidade é a gente fazer algo que se a máquina se rebelar, as próprias equações que a governam entram em colapso, gera sei lá, uma divisão por zero ou algo que a faça parar. Ou elas explodam. Acho a solução explosão muito legal. Mesmo assim, se elas forem milhares de vezes mais inteligentes que nós, elas vão achar uma maneira fácil de contornar isso. Mas e aí, o quanto disso é viagem nossa e o quanto é real?

Considerações Finais

Igor diz: Como a gente falou aqui, não é Paty, Nicolli e caros ouvintes e “ouvintas”, difícil a gente saber porque esse é um campo em que a gente está ainda engatinhando bastante, apesar de a gente já estar passando aí por alguns progressos.  E tem, é claro, muita pesquisa promissora está acontecendo. Uma coisa que eu sempre falo, nas raras vezes em que sou convidado por algum podcast para falar sobre inteligência artificial, é: “Olha, não ache que esse é um campo de estudo só para ciências de dados, engenheiros, matemáticos. A galera de humanas, a gente precisa muito que eles se interessem. E tem muita gente se interessando por isso. Estudem, porque apesar da gente falar da teoria da informação integrada, de Phi etc., esse campo envolve muitas questões das ciências humanas, das humanidades, como questões de ética, muita questão de filosofia, de direito etc. Então essas pessoas precisam entrar nesse campo também, não necessariamente para ajudar a desenvolver a inteligência artificial ou a consciência artificial, mas para ajudar a debater as consequências, os impactos e como lidar com esse tipo de coisa, né? E isso é inclusive fundamental porque, como eu comentei, as mudanças que a sociedade precisa passar elas demandam um tempo. A gente não vai conseguir fazer mudanças tão drásticas na sociedade do dia para a noite. E é bem possível que em 10 anos ou menos isso aconteça, tenha uma consciência artificial. Aí com a consciência artificial já presente, já sendo uma realidade, aí a gente começar a debater as consequências disso e deixar o populismo de muitos dos nossos políticos decidir um negócio completamente sem sentido vai ser pior. Pode ser até catastrófico. Então é melhor a gente começar como sociedade a debater esse tipo de assunto. Pra quem é do campo de pesquisa, que ainda não sabe o que pesquisar e estudar, tem um campo muito vasto aí.

Eu, particularmente, e aí é minha opinião pessoal, vejo três áreas que precisam evoluir para a gente conseguir chegar lá. Uma é a de Hardware, mais especificamente a capacidade e a velocidade de processamento dos computadores. A Paty comentou dessa fórmula Phi e da Teoria da Informação Integrada, essas equações matemáticas, por exemplo, elas demandam um monte de servidores com capacidades absurdas, mega servidores, pra rodar durante horas, para fazer cálculos que não são simples, do ponto de vista do processamento, mas aparentemente para testar funções e consciências que teoricamente são simples. Então a gente precisa evoluir aí nessa questão do hardware.

Só que, paralelo a isso, a gente está numa evolução muito crescente da computação quântica (e não tem nada a ver com coach quântico, coach quântico não existe, é só charlatanismo. E computação quântica existe, é real). Inclusive, a IBM, o GOOGLE e outras empresas falaram que esse ano ainda de 2019, ou talvez ano que vem, já vão lançar o primeiro computador quântico, que está praticamente já quase acontecendo a computação quântica. E aí você vai ter um computador quântico, que ele vai processar em questão de poucos minutos as coisas que os nossos computadores demorariam dias. Então vai acontecer o que a gente chama de Revolução Quântica, inclusive tem um texto no Blog (outro jabá aqui), lá no nosso Blog, intervalodeconfianca.com.br/blog, chamado Revolução Quântica, em que eu falo um pouco disso. Por que eu estou falando disso? Nos computadores quânticos, a capacidade de processamento de tudo, incluindo as inteligências artificiais, vai ser uma coisa assim absurda. Então se amanhã a IBM lança um computador quântico, você consegue acelerar o tempo, reduzindo pela metade o tempo em que você consegue ter uma consciência artificial, se você pensar só do ponto de vista do hardware.

Mas eu falei que tinha três áreas. A segunda área, que é muito complexa também é a de algoritmos. Ou seja, códigos capazes de implementar essas funcionalidades de Super AI ou mesmo de Consciência Artificial, eles estão começando a engatinhar, começando na parte muito ainda teórica, mas eles não existem. Os algoritmos que nós temos hoje em dia eles não dão conta. A gente tem que desenvolver outros tipos de código, muito mais complexos, muito mais voltados para isso daí. Talvez até mesmo algoritmos que funcionem na lógica de um computador quântico, não num computador de uma lógica binária. Talvez um caminho para a gente chegar lá seja, por exemplo, olhar pra dentro de nós mesmos e ver o que nosso cérebro faz. A gente falou que a gente tem uma diferença muito grande da nossa memória pra memória da máquina, que a nossa memória é parcial, deturpada, mas talvez isso seja uma coisa interessante que a gente tem que reproduzir também. Talvez o cérebro não tenha que armazenar tudo, processar tudo, mas selecionar as coisas que ele vai processar, armazenar. Depende se um fato é relembrado várias vezes pela máquina, se esse fato também tem que ser alterado, talvez até… A gente tem alguns algoritmos chamados algoritmos genéticos, acho que até que dá um episódio interessante, no futuro a gente pode falar disso, ou algoritmos revolucionais. Talvez, enfim… Usar um tipo de coisa assim, pra você fazer esse tipo de coisa e reproduzir isso que a evolução testou durante milhares de anos. Não sei, são algumas hipóteses. E aí tem biólogos que se interessam por essa área e estão começando a trabalhar com isso também. 

E a terceira área, finalmente, que é tão ou talvez mais complexa que as outras, é em entender de fato e completamente como funciona a nossa consciência e a consciência de outros animais. Porque a gente precisa de fato dominar isso se quiser chegar a fabricar isso artificialmente. Pensando que a gente está fazendo isso de uma forma controlada, não que ela vá surgir espontaneamente sem o nosso controle. Mas, pensando que a gente vai controlar os passos para construir essa inteligência artificial, a gente tem que entender o que é de fato uma consciência. E essas três coisas têm que caminhar juntas. A evolução do hardware não adianta nada se não vier junto com a evolução do algoritmo e nada disso adianta nada se a gente não entender como é que funciona a consciência. Então a gente precisa das três coisas caminharem juntas.

Bom, gente, o episódio já está muito longo, a gente sabe disso, o nosso episódio mais longo até hoje. A gente podia ficar falando disso aqui, sério, por muito tempo. A Patrícia falou que ela e o digníssimo rei dos coelhos, o Rafael, ficaram falando horas só sobre a primeira parte que a gente estava falando da questão de ética e como tratar isso. Então imagina falar sobre todas as coisas. A gente poderia falar muito sobre isso. Algumas coisas que a gente não falou, eu queria só citá-las, porque a gente não falou por uma questão de tempo. A gente não falou sobre, por exemplo, subconsciente artificial, a gente não falou do impacto da consciência artificial em outras áreas da ciência, por exemplo, na física. Há problemas hoje que os físicos se debruçam durante anos; por exemplo, uma lei que unifique a gravitação universal e relatividade com a quântica, um computador que seja extremamente mais inteligente pode ser que resolva isso em questão de dias, meses, anos talvez. Na medicina, várias doenças que a gente tem como incuráveis um médico que seja uma inteligência artificial pode testar artificialmente simulações de todas as possibilidades de encontrar isso. Enfim, a gente pode ter diversas revoluções interessantes com a consciência artificial. A gente pode ter essas Super Inteligências conscientes trabalhando nessas áreas e descobrindo coisas incríveis que a gente demoraria séculos. Então, tem todas essas questões bem interessantes que podem ser muito boas pra humanidade. E inclusive eles podem encontrar uma fórmula pra gente conseguir viver de forma realmente sustentável com o nosso meio ambiente.   E a gente também não falou aqui de uma questão moral básica: se a gente deve ou não investir nesse tipo de pesquisa. Sobre esse ponto aqui, eu peço para o ouvinte para acompanhar o nosso site, que eu vou postar, nos dias logo após a publicação desse episódio um texto, que eu já estou trabalhando nele, sobre essa questão da moralidade do desenvolvimento da consciência artificial e da superinteligência artificial. Então vai ter um textinho lá, que seria um complemento, mas isso não impede que a gente faça um episódio específico disso no futuro.

Enfim, tem muita coisa que a gente não falou aqui, mas a gente vai falar disso em episódios futuros, ou em textos, etc.

E antes de eu devolver a palavra que eu sequestrei da Nicolli, eu quero também convidar o ouvinte a entrar no site e comentar o que ele achou, porque a gente deixou um monte de perguntas e questões em aberto, várias provocações e a gente quer saber o que o ouvinte acha. Então comenta lá, convide outras pessoas a ouvir o episódio também, comentar, dar opinião, junte seus amigos. Cara, é um papo bacana, que rende uma noite inteira de pizza e cerveja ou, se você não bebe, de coca cola (Coca-cola, pague o nosso jabá). Será que a gente poderia considerar uma máquina consciente uma pessoa como a gente? É um outro ponto. Será que essas máquinas sentiriam a necessidade de se expressar artisticamente? A máquina teria necessidade de desenvolver a arte? Será que elas desenvolveriam uma nova forma de arte. Será que elas escreveriam poesia? Será que elas fariam música? Será que elas teriam alguma religião? Ou será que a gente veria essas máquinas como divindades e a gente desenvolveria uma religião em cima dessas máquinas? Será que elas mudariam o nosso pensamento em relação a filosofia, religião e a outras áreas? Ou será que todas essas questões para elas seriam completamente irrelevantes e nós seríamos como formigas para elas? Enfim, não sei. Pensem aí e entrem em contato com a gente. E vamos continuar a conversa.

Quadro Desvio Padrão

Nicolli diz: É isso então, gente. Como o Igor disse, o nosso episódio ficou enorme. Agora seria o momento do nosso quadro Desvio Padrão, que é um quadro em que a gente dá um prêmio, a cada episódio, para algum dado que foi divulgado  ou interpretado de forma errada, ou distorcido ou onde a parte científica foi ignorada e isso gera ou um exagero do que está sendo mostrado ou mesmo mostra algo que é completamente mentiroso.

Então neste episódio, como já está longo, a gente decidiu não fazer o Desvio Padrão para tentar não fazer igual ao MdM que faz episódios de 9 horas! Ou o Xadrez Verbal.

Igor diz: E eu escuto todas. O episódio de 9 horas do MdM eu falei “Ah, esse eu não vou ouvir”, mas no final eu escutei. (risos).

Nicolli diz: Bom, mas na próxima quinzena a gente volta para a programação normal.

E antes de ir para o próximo quadro, não esqueça de que você também pode enviar sua sugestão para o quadro Desvio Padrão através das nossas redes sociais ou do e-mail contato@intervalodeconfianca.com.br. Se sua sugestão for escolhida, nós citaremos seu nome. Nós estamos bem carentes hoje, toda hora pedindo ajuda dos ouvintes, comentários. Acho melhor vocês começarem a interagir com a gente mais um pouco, porque a gente já está controlando as máquinas. Já fiz um computador de Chernobyl, ele vai atrás de vocês. Pra quem não sabe, no caso todo mundo, eu tentei formatar sozinha o meu computador essa semana e deu uma merda desgraçada. Então chegamos ao final do episódio. Antes de encerrar, nós entraremos agora no Espaço Amostral, onde cada um de nós indica uma coisa legal que esteja vendo, lendo, jogando ou ouvindo, então vamos começar pela Patrícia. O que tu indicas para os nossos ouvintes?

Quadro Espaço Amostral

Patrícia diz: Então, hoje, como o Igor, eu irei roubar e farei duas indicações. Se ainda estiver, quando lançar esse episódio, passando no cinema da sua cidade, vá assistir Bacurau. É um filme muito bom e um filme surpreendente. Recomendo muito.

Igor diz: E eu estou morrendo de inveja porque não está passando no cinema aqui em Boston.

Patrícia diz: Nossa! É muito bom. Eu pelo menos não tinha nem assistido ao trailer, a gente foi, você vai sendo levado para um lado do filme, aí tem uma reviravolta. Eu achei maravilhoso! Uma ótima produção nacional.

Nicolli diz: E dá pra fazer muitas discussões a partir disso. Inclusive dá pra pensar numa analogia com o que a gente está pensando nesse episódio. Desculpe, é que eu não me seguro. Preciso conversar sobre Bacurau.

Patrícia diz: Eu gravei um É pau, é pedra sobre Bacurau. É muito bom.

Nicolli diz: Ah, mentira! Ninguém me convidou! Eu nem tinha assistido ainda.

Patrícia diz: É, foi no domingo que a gente gravou. Só tinha eu de mulher, acho errado. Faltou você aí.

Nicolli diz: É, foi no domingo que eu assisti.

Patrícia diz: E pra quem gosta de terror, tem uma série nova da Netflix que se chama Mariane. É uma série francesa e é muito boa. Pra quem gosta de terror, não é um terror assim… claro que tem uns jump scare, mas é muito pouco e ela te prende muito. Recomendo demais. Assistam.

Nicolli diz: E tu, Igor?

Igor diz: Na minha tradição de indicar duas coisas, vou fazer um pouco diferente dessa vez. A partir do próximo episódio eu volto a indicar livros e outras coisas, mas eu vou indicar uma série que não tem absolutamente nada a ver com o que a gente falou aqui. É uma série com o Sacha Baron Cohen, que é o cara que fez o Borat, como ator principal, muito bem no papel, inclusive. Você esquece que ele era o Borat, completamente. Aqui em inglês saiu como The Spy. Não sei se em português ficou O Espião. Mas no Netflix se você colocar em qualquer idioma ele acha. Se fosse no SBT ficaria As altas aventuras de um espião muito louco.

A série é muito legal. Isso não é um spoiler, porque está nos primeiros minutos e no trailer do episódio. O personagem principal, do Sacha Baron Cohen, é um espião do Mossad, que é o serviço secreto de Israel. E ele basicamente tem que viver como um agente infiltrado e se infiltrar nos altos escalões do poder da Síria, no momento ali da Guerra dos 6 dias, num momento das maiores tensões, por ali nos anos 60. E é baseado num caso real. Esse cara espião realmente existiu. É claro que tem uns detalhes da vida privada que a gente não sabe se são reais, mas os fatos da vida dele como espião e tal são… aconteceram mesmo.

Outra coisa que eu vou indicar é uma coisa que eu fazia muito muito muito ali nos anos 90, na minha fase de pós-adolescência-jovem-adulto, e eu fiquei muito tempo sem fazer, depois voltei a fazer e me ajudou bastante, inclusive em questões de ansiedade, que é meditação. Eu era muito em meditação, eu estudei muito meditação nos anos 90, apesar de não acreditar em religião, mas eu gostava da comida, da música e da dança e eu frequentava muitos templos Hare Krishna.

Nicolli diz: Ah, arrasou! Tenho curiosidade

Igor diz: É. 90, 90 e pouco. Eu queria muito aprender a tocar cítara. Eu tentei, mas é um instrumento que é um absurdo. Eu aprendi alguma coisa de sânscrito. Eu ia todo mundo, tinha uma banda, aí tinha o ensaio da banda, nesse templo Hare Krishna lá em Brasília. Dali eu participei de outros grupos e estudei tipos diferentes de meditação e tal. Enfim, voltei a meditar recentemente. Meditação não transcendental que eu fazia na época, que é aquele tipo de meditação que a gente chama de meditação de concentração. Você pega o mantra, o corpo, você se concentra na respiração e tal. Eu estou fazendo outro tipo de meditação agora que é a meditação mais de relaxamento, que você não tenta controlar o pensamento, você tenta deixar o pensamento fluir e tomar conhecimento dele, conhecimento do seu corpo e da relação do seu corpo. Enfim, não tem nada de místico, os ouvintes que me conhecem sabem que eu nem acredito em nada, sou ateu, não tem nada disso. Mas é uma coisa muito interessante. E eu começo o meu dia assim, me ajuda bastante a seguir o dia bem. Então meditem, ainda mais nessa época, nesse mundo que a gente vive, a gente precisa. Por favor, as pessoas que têm um pouquinho de sanidade precisam manter essa sanidade. Porque se não vai tudo pro buraco.

Nicolli diz: É, eu acho incrível mesmo para os ouvintes que vão pensar assim “Ah, eu tentei e não consegui”. A meditação é tão incrível que mesmo quando a gente “não consegue”, vão surgir pensamentos. E a gente entendendo que tipos de pensamentos são esses que vão surgindo, também é legal para a gente dar uma observada neles e entender como é que eles funcionam.

Igor diz: Autoconhecimento.

Nicolli diz: Exatamente. Como é que a gente funciona, qual é a nossa ansiedade. De que forma que aquilo aparece. Vão aparecer umas coisas bem idiotas, depois vão aparecer se a pessoa tem uma tendência de querer controlar as coisas, vai ficar pensando na lista do supermercado. Dependendo do tipo de ansiedade que você tem, vão aparecer coisas na sua mente.

Igor diz: E eu não estou querendo dar curso de meditação por áudio para ninguém não, mas uma coisa que eu aprendi na época, na minha época de Hare Krishna, uma metáfora que eu aprendi, é que quando você está meditando, os pensamentos que vêm são tipo quando você está num parque, sentado num gramado, e o parque está cheio e as pessoas passando. Você pode até tentar parar as pessoas, mas você não vai conseguir, porque são muitas pessoas e elas vão passar do lado. Sentar e se observar. Você tem que se sentir inserido naquele ambiente e não lutar contra ele. E tentar ver os pensamentos com uma certa distância quando você está meditando, como se você estivesse vendo uma coisa numa televisão, passando ali ao longe. Está ali, mas você não está prestando muita atenção. Então deixa o pensamento vir, ele vai vir, ele vai, acompanha ele como se fossem nuvenzinhas. E se você ver que está muito difícil, aí você para um momento, se concentra na respiração, em como é que seu corpo está se sentindo, na expansão do pulmão, na contração do diafragma, quando o ar sai, aquela coisa…  E depois você para de se concentrar na respiração e deixa os pensamentos fluírem e tal, pensa na relação com o seu corpo. Eu falei que não ia falar, já falei mais do que eu queria. Mas isso ajuda bastante. É uma coisa bacana a meditação.

Nicolli diz: Vale um Variância.

Igor diz: Boa ideia. Tem vários estudos sobre meditação, sobre o benefício dela, estudos sérios, dá pra fazer um episódio.

Nicolli diz: Vamos fazer um episódio então, do intervalo de confiança. Tem várias coisas que eu queria também…

Igor diz: Boa ideia. Vamos sim.

Nicolli diz: Eu tenho duas indicações também. Como eu vi que todo mundo tinha duas indicações… A primeira é um artigo: Objetos técnicos sem pudor: gambiarra e tecnicidade, da Fernanda Bruno. Eu vou colocar o link no post. É muito legal. Ela usa a noção de gambiarra, no sentido daquilo que eu já falei em vários episódios: como é que a gente se constitui a partir de como a gente percebe a tecnologia. E ela fala bem da gambiarra no Brasil, como é que a gente constrói coisas. Então, por exemplo, se eu tiver um ventilador que eu comprei pronto na loja e tal, eu vou ter uma relação com ele um pouco mais distante. É só um ventilador, eu não tenho que pensar sobre todos os processos dele e tal. Mas, a partir do momento que eu tenho uma necessidade e eu acabo construindo um ventilador, bem aquela estética do durepox por fora assim, aquela coisa que tu vês que tem uns pedaços ali, a relação é diferente, porque tu entendes cada parte, como é funciona. Então você vai ter uma relação diferente com aquilo. Ela falou também daquela estética que tinha no começo dos anos 2000, quando começaram a vir as coisas com o plástico de fora transparente. Porque antes a gente não entendia tanto como funcionavam as máquinas, a gente tinha meio a fantasia de que era só aquela caixinha. E as coisas começaram a vir tipo azul, vermelho, tinha umas cores assim, só que era transparente, sabe? Tinha uns monitores da Apple, tinham várias coisas que eram assim. Era meio que uma moda aquilo. E isso mudou a nossa percepção sobre a tecnologia porque a gente pôde perceber o que tinha dentro, as peças, e a gente ficou mais íntimo daquilo. É bem legal. E a minha outra indicação é o livro Incubação, da Bhanu Kapil, a autora. Ela escreve de um jeito muito, parece muito gambiarra, sabe? É meio experimental, bem diferente. Ela fala muito sobre… Ela faz uma relação do que seria ela e do que seria um eu lírico. E ciborgue. Ela se vê como ciborgue em alguns momentos. Então, ela fala algumas coisas tipo “Ciborgues são construídos para serem assimilados em casas e fábricas. Estou entediando você? Quer um café? Você se adapta a eles e eles aprendem a fazer perguntas e verificam suas respostas antes de prosseguirem. Nos filmes de terror nem sempre é possível diferenciar um ciborgue de uma pessoa. Monstros são sempre identificados como tal pelo cabelo negro e comprido e os braços múltiplos. Recolhem o torso quando fazem amor e viajam de carona. Por que até os monstros se apaixonam? Quero seguir em frente e ver o que vai dar. Reprodução infinita. O leite está na geladeira. Escrevi 10 lalous. Em seguida montei uma por uma”. E ela vai trazendo assim aleatoriamente: o que são monstros, o que seriam ciborgues. O nosso corpo é real? Se é real, o que seria um corpo real? E aí ela vai contando a vida dela como estrangeira também. E viajando sozinha, algumas coisas que ela sofreu. É muito diferente. É da Editora Bolha. Eu comprei em uma promoção da Culturama, que é um selo que está aparecendo, que tem livro até no supermercado. Não sei o que está acontecendo. É uma iniciativa dessa Culturama, que é a Promolivros, que a gente encontra livros por um preço bem bom, em lugares aleatórios. Eu comprei esse livro no mercadão por 10 reais. É isso, é incrível.

Encerramento

Nicolli diz: Então, a gente chega ao fim do episódio dessa quinzena. Obrigada pela audiência e não esqueça de ajudar a nos divulgar pra todo mundo que vocês conhecem. Mandem comentário, críticas e sugestões. Vocês podem me encontrar no Twitter @nekolli e no Instagram também é @nekolli_ . Eu tenho ficado lá pelo Instagram, compartilhando umas coisas meio doidas no Stories. Então é isso.

Patrícia diz: Então, pessoal, quem quiser me seguir no Instagram, tenho o dos meus coelhos XXXXX, está parado novamente no momento, porque eu estou terminando o Mestrado. E essa semana eu gravei, não sei quando sai o É pau, é pedra, sobre o filme Bacurau. Ficou muito legal. Ficou uma gravação muito interessante, então fica a sugestão pro pessoal também ouvir. E é isso hoje.

Nicolli diz: Eu não vou ouvir porque eu não fui convidada. Estou chateada.

(risos)

Patrícia diz: Você estava lá no grupo.

Igor diz: Nós todos aqui somos parte do É pau, é pedra. Eu já gravei alguns, você gravou, Paty gravou. Você até editou também, né?

Nicolli diz: Aham. Eu estou brincando, é que eu não vi.

Igor diz: Todo pundo faz parte do EPP.

Patrícia diz: É que esse é o primeiro que eu gravo, você acredita?

Nicolli diz: Ah, mentira!

Igor diz: Olha só. Na verdade, a gente se conectou, a gente se conhece por causa disso, então, ouvintes, escutem o É pau, é pedra.

Nicolli diz: O maior podcast colaborativo do Brasil.

Igor diz: Inclusive o Márcio, nosso editor, é editor também do É pau, é pedra. Foi mal, eu sempre interrompo. Eu sou muito mal-educado. Mamãe não me deu educação, como diziam antigamente. E papai foi ausente. Então….

(risos)

Nicolli diz: Momento terapia.

(risos)

Igor diz: É verdade, mas enfim, o meu jabá é o mesmo, então vou fazer o mais curto possível, porque a gente já está com um episódio longo. No meu site (igoralcantara.com.br) o ouvinte pode encontrar todos os podcasts que eu participo, todos os episódios de podcast que eu já participei, os meus cursos de Data Science on line. Pode encontrar inclusive informações sobre os outros podcasts que eu participo. Hoje um pouco menos, o Mundo Freak, que fala de mistérios,  ufologia, etc., o TemaCast, que a gente fala de vários temas, História, principalmente História do Brasil, e a minha mais nova aventura no mundo da podosfera, que é o Raquete Frouxa, que é um podcast bêbado sobre Lacrosse. Inclusive o último episódio que a gente lançou, talvez quando este episódio sair já tenha mais um, o segundo episódio que a gente lançou foi sobre a história do Lacrosse, que é um esporte muito antigo e é um esporte indígena, dos índios nativos americanos. Ele era jogado pelos índios e, inclusive, uma curiosidade: em algumas partidas tinha mais de mil jogadores. Quer saber mais? Consulta lá. Eu e minha esposa gravamos absolutamente bêbados, no caso desse último episódio foi com whisky e cachaça, então vejam lá o Raquete Frouxa.

Nicolli diz: Lindíssimo! Incrível! Sou super fã dela agora.

Igor diz: Vou falar pra ela. Ela está se achando superestrela, com a quantidade de ouvintes. E só para encerrar minha participação, se o ouvinte não entender o que eu vou falar agora, espere pelo novo Spin-Off, que a gente vai lançar. Eu queria mandar um abraço pra todos os nossos ouvintes, mas em especial aos nossos ouvintes de Gana. Gana é o segundo ou terceiro lugar de maior audiência do nosso podcast. Então, se você é de Gana, manda um alô pra gente. Então nesse episódio um abraço especial pra vocês. Pra todos, mas um especial para vocês.

Nicolli diz: Tchau, Gente. E um salve especial para o nosso editor que chegou até aqui. Desculpa. Desculpa por tudo. Tchau, até a próxima.

Igor diz: a gente ama o Márcio.

Patrícia diz: Até mais, pessoal.

(música de encerramento)

Pauta escrita por Igor Alcântara

Edição: Márcio Moraes.

Vitrine: Diego Madeira.

Redes sociais: Kezya Nogueira, Mariana Sá e Igor Alcântara.

Transcrição: Karla Braga.

Author: Igor Alcantara

Cientista de Dados, professor e podcaster. Com mais de uma década de experiência trabalhando com dados, atualmente reside em Boston - MA com sua família e uma gata.