Transcrição – 09 – Como as máquinas aprendem?

Esta transcrição foi feita sob a coordenadação Karla Braga e é uma reprodução fiel ao que foi dito no episódio. Trabalharam na transcrição Daniel Tschick, Sylvia Anan, Marcos Ferreira e Vinícius Pacheco.

Esta pauta foi feita por Igor Alcantara. A vitrine do episódio foi feita por Diego Madeira. O episódio foi apresentado por Igor Alcantara e participou Kézia Nogueira.

O episódio começa com a vinheta Intervalo de Confiança. A trilha foi composta por Rafael Chino. A voz da vinheta é de Letícia Daquer. A voz com os créditos, ao final do episódio, assim como o quadro de recados são de Mariana Lima.

ABERTURA

Igor: Olá, ouvintes do Podcast Intervalo de Confiança. Estamos começando aqui mais um episódio e eu já começo com uma frase do grande matemático, estatístico, cientista de dados, etc. Allan Kay, que disse: 

“Algumas pessoas têm medo que a Inteligência Artificial nos faça sentir inferiores, mas qualquer pessoa consciente deveria ter um complexo de inferioridade toda vez que olhar uma flor.” Alan Kay

E com essas palavras eu inicio esse podcast que vai falar sobre como as máquinas aprendem. Como é que a gente consegue fazer um computador aprender alguma coisa? Ou seja, a gente vai falar de um assunto muito esperado, muito pedido, mas claro que a gente vai falar em breve, que é o Machine Learning

Só que eu não estou aqui sozinho. Está aqui comigo a Kézia. Dá um alô para os nossos ouvintes, Kézia. 

Kézia: Oi, gente. Voltei. Estamos aqui pra falar desse assunto. Hoje é um episódio um pouquinho mais técnico, mas vai ser legal também. Continua com a gente. 

Igor: Exatamente. Como a Kézia falou, é um episódio mais técnico, mas, como a gente sempre faz, segura na nossa mão que a gente vai falar de um jeito para todo mundo entender do que se trata esse assunto Machine Learning, que está tão aí na mídia, está sendo tão falado. E antes de introduzir o tema exatamente de Machine Learning, eu venho aqui com outra frase do próprio Alan Kay: 

“A Melhor forma de prever o futuro, é inventá-lo”.

Então, fica aqui com a gente, porque a gente vai falar hoje de Machine Learning, mas antes eu vou passar a palavra para a nossa produtora, a Mariana Lima, que vai dar alguns recados pra vocês. 

RECADOS

Mariana: Não esqueça de curtir nossas redes sociais.  No Facebook, curta a página Intervalo de Confiança.  No Twitter, siga o perfil @iConfPod. E no Instagram nós também estamos como @iConfPod.

No Twitter, você pode acompanhar novidades desse mundo de dados, inteligência artificial e ciências em geral. No Instagram, você tem acesso às imagens citadas no episódio e a alguns conteúdos complementares, como gráficos e equações. 

Visite também nosso site em intervalodeconfianca.com.br. Lá você tem acesso às transcrições dos episódios, aos posts dos mesmos e pode conhecer mais a nossa equipe. Aproveite que está em nosso site e leia os textos que publicamos em nosso Blog. Vá até o Menu e procure “Blog” ou visite diretamente em intervalodeconfianca.com.br/blog.

No post dos episódios você também encontra uma análise tudo que foi falado, com tabelas e gráficos de palavras mais usadas e velocidade. Por fim, não esqueça de responder a duas pesquisas rápidas. A primeira é a nossa, do intervalo de confiança, que fizemos para conhecer melhor os nossos ouvintes e melhorar nosso conteúdo. A segunda é a PODPESQUISA 2019, da Associação Brasileira de Podcasts, que quer entender melhor o perfil do ouvinte de podcasts no Brasil. O acesso às duas pesquisas você encontra no post deste episódio. 

E falando em episódio, chega de recados, e vamos então falar sobre como as máquinas conseguem aprender. 

 DEFINIÇÃO

Igor: Então, gente, prestem atenção nos recadinhos que a Mariana deu e façam as coisas que ela pediu porque é muito importante pra gente. 

Como a gente disse na abertura, o episódio é muito pedido e a gente sempre fala “a gente vai falar disso”, não só em um episódio, mas em vários episódios, que é o tema de Machine Learning. Mas antes a gente precisava fazer outros episódios que serviriam não apenas como isso, mas também como introdução para esse tema. Então a gente fez vários episódios em que a gente falou diversos aspectos da estatística, a gente falou de amostra, a gente falou de população, a gente falou de desvio padrão, não só o nosso quadro de todos os programas, mas enfim, a gente falou de diversos assuntos que têm uma relação muito direta com machine learning, ou com aprendizado de máquina, que é como a gente chama em Português. A gente falou de inteligência artificial. A gente teve uma introdução em que a gente falou de inteligÊncia artificial em mais de um programa, pra gente, então, ter embasamento suficiente para chegar nesse programa e falar apenas de machine learning

Mas antes da gente falar dos temas e entrar um pouco mais na parte técnica, eu vou pedir pra Kézia falar pra gente o que é machine learning. Definir, pra quem nunca ouviu falar nisso: o que significa? O que faz esse negócio? 

Kézia: Então… o próprio nome já dá uma dica. Em português, é aprendizado de máquina. E literalmente é aprendizado de máquina. São modelos computacionais e estatísticos que possibilitam que um computador tome decisões e execute tarefas a qual não foi explicitamente determinado a fazer. Então é isso: o modo com que a máquina vai aprender algo. 

E isso é um pouco diferente do nosso modo tradicional de programar uma máquina. Por exemplo, Igor, explica pra gente como a gente normalmente programaria uma máquina. 

Igor: então… eu vou dar aqui um exemplo obviamente hipotético para a gente entender, até porque a gente não tem o recurso visual, a gente tem aqui apenas o recurso do áudio. Então eu vou simplificar o exemplo que eu vou dar para ficar mais fácil da gente entender. Imaginem que eu estou fazendo um programa muito simples para poder julgar um pedido de empréstimo. Então, eu tenho uma pessoa, ela vai pedir um empréstimo para comprar uma casa ou um carro, alguma coisa. E esse pedido de empréstimo chega para um determinado programa e ele tem que dar um resultado, se aquele empréstimo vai ser concedido ou se ele vai ser negado. Imaginem que eu estou falando de um processo de programação simples, de programação tradicional. Então, normalmente o que vai acontecer é o seguinte: existe alguém, alguém que entende daquele negócio, que vai definir algumas regras para o programador. E vai falar o seguinte: se a pessoa tiver uma renda de tanto e ela tiver um imóvel próprio ou não, se ela tiver emprego há tantos anos, e o empréstimo que ela pedir for automotivo, e o valor do empréstimo for de tanto, em tantas vezes, você vai conceder o empréstimo com juros de tanto. Se for isso isso isso aquilo aquilo aquilo, aí você vai conceder o empréstimo com os juros de tanto. Se for essa condição não sei o quê não sei o que lá, você não vai conceder o empréstimo. E assim por diante. 

Kézia: Isso é aquele clássico, por exemplo, eu trabalho, como eu já disse em outros lugares, em empresas de tecnologia. E a gente que não é desenvolvedor acaba achando que tudo é “If”, que é isso que ele falou, o “se”. É “If” ou “Se” isso, então isso. O que o Igor está falando é exatamente isso: você vai colocar trocentos milhões de “if”, um dentro do outro, o que é muito confuso, muito difícil, e você vai ter que pensar em todas as possibilidades, 

Igor: Exatamente. Não só isso. Se você tem qualquer mudança nas regras de negócio, por exemplo… Obviamente eu estou simplificando. Você provavelmente não falaria “um salário de tanto”, você falaria uma razão, uma proporção entre o salário e o valor do pedido de empréstimo. Mesmo assim, se você tivesse que mudar esta regra de alguma forma e chegasse numa situação que não estivesse prevista… E quando eu morava no Brasil, acredite em mim, eu era aquela pessoa que testava todas as situações que o sistema não previa. Por exemplo, teve uma época em que eu estava no Brasil e eu não tinha endereço físico, porque eu estava viajando muito e eu só ficava em hotéis. Então coisas como “qual é o seu CEP?”. Não sei, eu não tenho CEP. Essa semana eu estou no CEP do hotel ali. Tinha umas situações assim e nunca nenhum sistema de computador conseguiu suprir as minhas necessidades. Ser atendido num hospital público, por exemplo, coisas assim. Não precisa ser um caso extremo. Mas se chegar numa situação diferente, aí o cara que é um autônomo, não sei o quê, pápápá, aí chegaria provavelmente à conclusão de não conceder o empréstimo, independentemente dele ser um bom pagador ou não, simplesmente porque não está previsto na programação tradicional. 

Kézia: Isso. A diferença com o machine learning é que o machine learning é muito mais próximo do aprendizado humano, por exemplo. Porque quando você tem uma criança de 2 anos, você não explica pra ela desse jeito que a gente acabou de dizer, com parâmetros e tal. Você não chega para a sua criança de 2 anos e fala “Se tiver fogo, você não coloca a mão”. Não é assim. Você ensina pra ela através de exemplos e o machine learning é exatamente isso. Então é muito mais fácil para o humano explicar para outro humano ou para uma máquina, no caso, através de exemplos do que através de código.  Porque para fazer código você precisa aprender esse código, tem milhares de linguagens, você tem que aprender a lógica deste código. Então é muito mais difícil e muito mais alienígena do que a gente faz normalmente. Então você apresentar exemplos, apresentar dados para máquina e a partir daí ela aprende, isso é o machine learning, isso é o aprendizado de máquina. É trazer esse aspecto mais para como o humano aprende para o jeito que a máquina aprende. 

Igor: Eu vou pedir agora para a Kézia só falar o finalzinho da definição clássica que ela deu de machine learning, que a gente vai voltar agora com o exemplo que a gente deu para entender melhor. 

Kézia: Que um computador tome decisões e execute tarefas a qual não foi explicitamente determinado a fazer. 

Igor: Exatamente. Nesse exemplo que eu de do programinha que vai decidir se eu concedo o empréstimo ou não, vai ter uma situação que eu não programei “Se for x, y e z, você vai fazer w”. Eu não disse isso pra ele. O programador não falou aquilo pra ele. Mas ele vai mesmo assim conseguir tomar uma decisão. Que não vai ser uma decisão padrão do tipo “If If If Else” ou “se não tiver nada, então você faz isso”. Não. Vai ser uma decisão baseada naquilo que ele aprendeu, Como ele aprendeu é uma coisa que a gente vai falar hoje ainda mais pra frente. Vai ser baseado em algo que aquele programa, ou aquele computador, aprendeu. E eu comentei no começo também que foi importante a gente fazer episódios anteriores de inteligência artificial para que a gente entendesse melhor machine learning. Então o ouvinte deve estar pensando assim: existe, então, uma relação entre inteligência artificial e machine learning. Existe mesmo, Kézia? E, se existe, qual é a relação entre inteligência artificial e machine learning? 

Kézia: Às vezes, principalmente se você olhar muito Youtube, notícia, essas coisas, eles vão utilizar os termos como intercambiáveis: às vezes vão usar inteligência artificial, às vezes vão usar machine learning, às vezes vão usar aprendizado de máquina. Mas não é exatamente a mesma coisa. A inteligência artificial é o conjunto maior e machine learning está contido dentro desse conjunto. Inteligência artificial é aquele processo, aquela ciência, que a gente tenta aproximar as máquinas dos humanos. Exatamente uma inteligência orgânica. Fazer uma inteligência artificial próxima de uma inteligência orgânica. E isso cobre muitas coisas. Cobre filosofia, cobre matemática, cobre milhares de coisas, porque, é muito mais complexo. E o machine learning é uma pequena parte da inteligência artificial. Ele explica exatamente o processo de aprendizagem. Então, como essa inteligência artificial aprenderia para se tornar mais próxima do humano. Não são exatamente a mesma coisa, esses dois termos, mas eles têm, sim, relação, porque o machine learning é um subtexto, um subset da inteligência artificial. Ele fala exatamente sobre o processo de aprendizagem. 

Igor: Eu ouvi uma piada em uma conferência. Todo o ano eu vou no Open Data Science que tem aqui em Boston, que é tipo uma conferência de inteligência artificial, de machine learning, de data science no geral. E um apresentador que estava na conferência geral fez uma piada, e é uma piada interna porque só tinha cientista de dados ali, ele falou: se está num power point, se está num slide, é inteligência artificial; se está no código, é machine learning. E o que ele quer dizer com essa piada, e todo mundo riu porque entendeu, é assim: quando a gente fala de inteligência artificial, é 90% do que existe hoje é machine learning praticamente. O que de inteligência artificial que existe e não é machine learning é muito pouco. Em termos práticos: existe muito mais de inteligência artificial que não é machine learning, mas o campo teórico. A gente falou de consciência artificial, por exemplo, que é uma coisa no campo teórico. A gente não tem máquina consciente ainda. Então, no campo prático, coisa que eu a gente consegue fazer e colocar em prática, colocar em produção, colocar em funcionamento hoje em dia quando a gente de inteligência artificial a gente está falando de machine learning. A maior parte dos modelos e dos códigos que a gente faz para IA é basicamente aprendizado de máquina. Você faz inteligência através de uma máquina aprendendo alguma coisa. 

Kézia: resumindo o que o Igor falou com a piada: inteligência artificial é toda vez que você vê aquelas imagenzinhas, que tem o cérebro, que é meio 3D, aí é inteligência artificial. Quando é código, aí é machine learning. 

Igor: Exatamente. 

Kézia: Mas e o big data? E o deep learning? Eu já ouvi essas palavras também. O que elas significam? É machine learning também, né? Ou não? 

Igor: O big data é um termo que eu já gravei alguns outros podcasts: eu já gravei SciCast sobre o assunto, eu já gravei Anticast sobre o assunto e, por incrível que pareça, é muito raro outros podcast me convidarem para falar sobre esse assunto. E eu comentei em ambos que big data é um termo que eu tenho absurda antipatia, eu tenho uma birra muito grande com o termo big data, porque ele é usado de forma muito errada quase todas as vezes. As pessoas normalmente usam o termo big data como se ele fosse sinônimo machine learning ou sinônimo de inteligência artificial e não tem absolutamente nada a ver. É como se antigamente o pessoal que era programador confundia Java com Java Script, porque o negócio só tem o mesmo nome, mas não tem absolutamente nada a ver. Então, é a mesma coisa aqui. O big data é basicamente uma técnica que você utiliza para armazenar dados, manipular dados e consultar dados, mas não dados relacionais clássicos. É um volume grande de dados. A gente fala muitas vezes em dados no formato de texto, textos não estruturados, como uma lista de vários twitts, por exemplo, coisas assim. Aí você armazena numa estrutura e quando você tem uma quantidade gigantesca e você precisa acessar esses dados e manipular esses dados de forma mais eficiente, aí a gente trabalhar numa estrutura que  num banco de dados tradicional com tabelinhas seria muito menos eficiente, muito menos prático. Isso é big data. A absurda maioria, a grande maioria dos projetos de ciência de dados não utiliza big data. Não utiliza. Utiliza o tradicional: dados comuns, você extrai amostra… Como a gente vai falar hoje, não utiliza big data. Existem alguns projetos muito específicos que você vai utilizar um XXX, um banco de dados de fato de big data. Então, não confunda. Big Data é como se fosse um banco de dados. Resumindo e Simplificando muito, quem trabalha com big data especificamente, big data de verdade vai dizer assim “Ah, você está simplificando pra facilitar o entendimento”: é como se fosse um banco de dados. E o machine learning é uma coisa que pode se utilizar dados nesse formato de big data ou não. 

Kézia: Então é assim: o big data é a biblioteca do Congresso Nacional dos Estados Unidos, que é enorme, e o machine learning é a literatura. Não é a mesma coisa. E normalmente, quando você vai estudar a literatura você usa dois ou três livros, não a biblioteca inteira. 

Igor: Exatamente Sua comparação é perfeita. Uma boa comparação. Exatamente. Inclusive, se o ouvinte algum dia tiver oportunidade de passear em Washington, é um local fantástico. Inclusive o primeiro livro impresso, que foi a Bíblia de Gutemberg tem um exemplar lá. É um passeio muito legal a biblioteca do Congresso Americano. Mas voltando pra cá. Você perguntou sobre deep learning. Deep learning não é sinônimo de machine learning, mas é um tipo de machine learning. A gente vai falar hoje aqui que quando você fala de machine learning, você está falando de uma técnica que é usada para resolver diferentes tipos de problemas e a gente vai falar disso hoje: quais são os problemas que a gente resolver com machine learning e como é que a gente resolve cada um desses tipos; quais são os tipos diferentes de machine learning. Um tipo de machine learning específico, mais avançado, é o que a gente chama de rede neural artificial. Inclusive foi o que eu estudei no meu Mestrado. Ele já é falecido, mas eu tive a oportunidade de ser aluno de um dos maiores, se não o maior especialista na época, de redes neurais do Brasil, que infelizmente deixou esse mundo. É um assunto muito antigo, como a gente vai ver hoje, a rede neural, mas apenas há 20 anos ou menos que começou a ter uma utilização mais prática. Basicamente, numa rede neural, você tenta reproduzir o comportamento dos neurônios e das sinapses entre neurônios no computador para resolver problemas que o computador resolveria com machine learning. Existe um tipo de rede neural mais complexo que é chamado de deep learning. A gente não vai falar de deep learning e de rede neural hoje. Por quê? Porque isso daí cabe um episódio específico. Na verdade, até mais de um, porque tem vários tipos de redes neurais, então a gente vai falar de perceptrom, a gente vai falar de rede convoluscional, tem vários tipos, então isso cabe em outro episódio, quando a gente falar de deep fake, quando a gente falar de reconhecimento de imagem, visão computacional, entra tudo nessa parte de rede neural e de deep learning e a gente vai ter outros episódios. 

Como a gente sempre fala: como o nosso foco é a questão de ciência de dados de XXX de dados e de dados no geral, e a gente vai ter sempre tanto aqueles episódios mais analíticos, como aquele sobre armas e outros, quanto episódios mais técnicos como é esse daqui e como a gente é um podcast focado nesse tipo de assunto, então em vez da gente pegar um episódios e falar tudo, a gente pode pegar episódios mais específicos. Então, fique com a gente que em breve a gente vai ter episódios falando sobre isso daí. 

Kézia: Então, resumindo, gente, machine learning não é a mesma coisa que inteligência artificial, nem big data, nem deep learning, tá bom? Vai ficar um pouco confuso agora, mas vai dar tudo certo. Então, onde que a gente usa o machine learning? O Igor falou um pouco atrás que todos os exemplos de inteligência artificial que existem atualmente, que não são teóricos, são machine learning. São exemplos de machine learning. Então, todas aquelas coisas que passam na TV, “ah, é AI, é não sei o quê”, é machine learning. E exemplos que a gente tem de machine learning atualmente. Como o Igor falou, tudo que existe de inteligência artificial ou algo próximo disso é machine learning. Todas as outras partes são teóricas, a gente ainda não conseguiu fazer. Mas o machine learning existe na vida real, é uma realidade. Então todas aquelas coisas que a gente vê na TV tipo “Ah, inteligência artificial faz isso, inteligência artificial faz aquilo” é machine learning. Exemplo clássico que a gente tem é a Netflix: como ela categoriza os filmes, faz aquela coisa de indicação pra vc do tipo “Se você assistiu isso” ou “Pessoas como você estão assistindo isso”, isso é machine learning. O Igor sempre fala e a gente já falou isso algumas vezes em episódios anteriores nossos, que a série Stranger Things é completamente baseada nisso, porque eles pegaram o que a maior parte das pessoas se interessam, juntaram lá num briefing, num brainstorm doido e criaram a série. Por isso que ela é a série mais assistida da Netflix e fez um grande sucesso, porque ela foi literalmente baseada no que as pessoas gostariam ou gostavam. 

Igor: Deixa eu só dar um exemplificada. A gente já falou antes, como a Kézia falou, mas só dando uma exemplificada nesse caso, porque eu acho fascinante esse caso do Stranger Things. A Netflix capta basicamente todos os seus dados de utilização e até de não utilização da plataforma. Então, de cada um dos usuários da Netflix, e são milhões de pessoas no mundo inteiro, eles sabem o horário que as pessoas utilizavam, se as pessoas gostam mais de determinado tipo de conteúdo, mas não só isso. Eles sabem, por exemplo, a frequência que as pessoas assistem, se elas fazem maratona ou se assistem um episódio por dia etc. 

Kézia: Uma coisa que eu descobri que era genial, que eles usavam também, é se você terminou um negócio ou não, sabe? Ele te recomendou um filme, você terminou de assisti-lo? Eu acho isso incrível! 

Igor: E não só isso, ele sabe quando você parou de assistir. E aí ele sabe, por exemplo, pontos da narrativa em que há mais desistência. E aí eles começam a combinar e eles sabem. Olha, o pessoal curte mais coisa com temática anos 80, tem que ter esse elemento, tem que ter isso, tem que ter isso, não pode demorar mais do que x minutos para entrar no tema principal, cada enredo, cada arco, tem que ter um mudança de tantos em tantos minutos ou de tantos em tantos episódios. O episódio tem que começar assim, terminar assim… Enfim, eles têm todo esse tipo de dados e isso foi passado, eles não escreveram o roteiro, mas foi passado pros roteiristas, e, baseado nisso, os roteiristas então fizeram, escreveram os episódios do Stranger Things. E eu sei que parece que outros produtos que eles estão produzindo também estão seguindo essa mesma lógica. Então isso é um uso de machine learning. Isso tudo foi baseado no uso de machine learning.

Kézia: A máquina foi um dos produtores da série, sabe?

Igor: Exatamente. Ela viu o que o público gosta, entregou na mão dos roteiristas: “agora escreve uma coisa baseada nisso daqui que a gente sabe”. Que a gente sabe, por exemplo, que se você pegar umas séries mais antigas, o ritmo das séries, elas são muito diferentes. Parece uma série mais arrastada do que o Netflix. Até porque, por exemplo, as séries, antigamente, você assistia um episódio numa semana e você via o próximo episódio na outra semana. Na Netflix, como existe uma questão [que é] o hábito de você ver maratonas, eles entregam todos os episódios de uma vez, o que acontece muitas vezes é que não é nem uma [série], os episódios são mais conectados que é praticamente um “filmão” gigante dividido em vários arquivos, basicamente.

Kézia: Eles só precisam começar a fazer isso com os filmes deles também, que os filmes originais Netflix não são muito bons, não… 

Igor: Eles não têm tanto interesse em investir em filmes, [porque] filme gera menos engajamento do que uma série. Então eles investem pouquíssimo em filme, eles investem mais em filme mais pela questão de ganhar prêmio etc. e de gerar uma certa reputação, mas o negócio deles é investir em série, que gera mais engajamento por parte dos clientes.

Kézia: E é legal uma coisa também que você colocou aqui na pauta, que o concorrente do Netflix não é só os outros programas de streaming ou TV e tal, é qualquer outro tipo de programa, sabe, você sair de casa, aquela balada, aquele rolê, porque ele está competindo pelo seu tempo, né. Porque, quanto mais tempo você passar na plataforma, melhor ainda. É como se fosse, sabe shopping, que não tem janela pra você não ver o tempo passar? É exatamente isso.

Igor: Ou cassino.

Kézia: É, cassino também, cassino funciona 24h por dia, as mesmas luzes, nada muda, que é pra você continuar colocando moedinha e puxando a alavanca: continua o próximo episódio, é isso. E aí também outro exemplo clássico de Machine Learning é a Amazon, às vezes as pessoas tem uma noção de que a Amazon, ela só vende umas coisas, mas a Amazon hoje em dia, ela, gente, não confunda: do mesmo jeito que a Netflix não é uma empresa, não é uma produtora de filmes de streaming, a Amazon não é uma vendedora, a Amazon não é um marketplace, a Amazon é uma empresa de tecnologia. Então, por que a Amazon vende tanto? Porque ela tem aquele programa de recomendação de produtos, ela sabe calcular o estoque de cada produto muito bem, gerenciar o estoque deles, como é que [se chama] a coisa de armazenagem? Estou lembrando só de warehouse, mas não é essa a palavra em português… Depósito. 

Igor: Isso. Os armazéns têm distribuição, e mesmo a conexão, agora eles tem um sistema que é uma espécie de Uber de entrega, você pode instalar um aplicativo, você pessoa física, e você pode virar entregador do [site], nos Estados Unidos a maior parte das entregas hoje em dia é feita assim. Aí você vai num depósito [da Amazon], eles põem um monte de pacote ali no seu carro, mais ou menos pelo tamanho do carro eles já sabem quantos vão caber e aqueles pacotes já estão pré-definidos baseados numa rota, você bota no aplicativo: “começar entrega”. Ele já calcula a rota bonitinho, pra fazer a eficácia da entrega, inclusive esse tipo de algoritmo que calcula rota é extremamente complexo, na verdade um que calcula a rota perfeita não existe, tem até prêmios pagando um milhão de dólares para quem bolar um algoritmo que calcula a rota perfeita, o que a gente tem hoje em dia é a rota “melhor possível”, digamos assim, então ele usa machine learning em tudo isso como você falou. E também tem a parte do Amazon Prime, que é a concorrente do Netflix, que também usa as técnicas do Netflix.

Kézia: Isso. Mas é como a gente falou, a Amazon ela é hoje uma empresa de tecnologia e se baseia bastante em machine learning para ser eficiente e para entregar muita coisa. Então a parte de serviços da Amazon, e eu não digo serviços tipo entrega, [mas] serviços online de empresas, serviços de nuvem, essa é a parte em que eles realmente são mais pesados, em que eles são maiores. Então meio que vender livros é a última coisa na lista de coisas que a Amazon faz. Ela é uma grande [empresa] de tecnologia e usa bastante machine learning pra ser o que é. E outro exemplo…

Igor: Inclusive o serviço de hospedagem em nuvem, desculpa, o serviço de computação em nuvem da Amazon, a WS, é o que a Netflix usa pra rodar os servidores. O serviço da Netflix roda na Amazon, é uma coisa engraçada: elas competem, mas um é cliente, [outro] é fornecedor.

Kézia: Isso, no lugar em que eu trabalho, e eu não vou dizer onde é, também famosinho aqui, também roda lá. A parte dos serviços roda na Amazon. 

Igor: Em Harvard, todos os nossos servidores, todos de business intelligence, a maioria dos … mais pesados de machine learning a gente coloca tudo na Amazon, na WS também. Enfim, eles são muito grandes nisso. 

Kézia: Se tiver algum mês aí em que a Amazon não vender nem um lápis, não se preocupa [porque] eles ainda vão fazer muito dinheiro.

Igor: Exatamente.

Kézia: Outra coisa que usa machine learning, que é uma coisa que pra gente é tão banal que a gente às vezes nem percebe é a questão do SPAM nos seus e-mails, por exemplo: como que o Gmail ou o Yahoo ou qualquer outro e-mail que você utilize sabe o que é SPAM e o que não é? Então ele utiliza machine learning pra isso também, para ele verificar: esse e-mail é SPAM, esse e-mail parece que é importante. No Gmail, eu sei que vocês usam, ele é o mais utilizado, ainda tem, além da questão do SPAM, eles colocam em categorias, que é “promoção”, ou é “social”, ou eles colocam lá aquela tagzinha amarela de que é importante, tudo isso é machine learning. Eles analisam o e-mail e decidem em que categoria vai cair. 

Igor: E a gente citou aqui alguns dos maiores “utilizadores”, empresas que mais utilizam machine learning hoje em dia no mundo, a gente falou de Netflix, falou de Amazon e a Kézia citou o Gmail, o Google tem o projeto Googlebrain, tem vários projetos nessa [área]. Outra empresa que usa muito isso é o Uber. Toda a parte de calcular a melhor rota pro motorista pegar o passageiro, pra fazer esse “pair”, esse pareamento entre motorista e passageiro, ou quando você faz aquela compartilhada do Uber, que eles chamam aqui de “Uber Pool” nos Estados Unidos…

Kézia: Acho que é o mesmo nome aqui, também.

Igor: … que é você pegar mais de um passageiro na [mesma] rota, tudo isso é questão de machine learning. Eu estava, inclusive, escutando um Freakonomics Radio hoje, [em que estava] falando um ex-diretor de economia do Uber que é agora diretor de economia do Lift, que é o maior concorrente do Uber aqui nos Estados Unidos, falando como é que produziram a questão de gorjeta no aplicativo, e tudo usando machine learning pra decidir o que fazer ou não e os caras tem uma análise estatística gigantesca, maravilhosa sobre a questão de pessoas que dão gorjeta ou não para os motoristas no Uber, bem bacana, e tudo isso é feito com machine learning.

E o Uber investe em machine learning inclusive pra coisas, eu abri o podcast falando uma frase que é que a melhor forma de prever o futuro é inventar o futuro, o Uber está tentando fazer isso. Eles são uma das empresas que estão investindo bastante, não em pesquisa própria, mas eles estão investindo em start-ups, em pesquisas de outras empresas, inclusive investindo no Google pra pesquisa de carro autônomo, que a ideia do Uber é, eventualmente, eliminar o próprio motorista e ter um carro autônomo que vai fazer toda essa coleta de passageiros, entrega etc. E os carros autônomos, basicamente, funcionam através de machine learning, e eu não estou falando, obviamente, da parte mecânica do carro, eu estou falando da parte mesmo de “dirigir sozinho”. É claro que quando estou falando isso, como quando a gente falou da Netflix e da Amazon, não é um machine learning, um algoritmo de machine learning, de um modelo. São diversos. Cada pequena funçãozinha ali tem um machine learning específico rodando. Então no carro autônomo seria, por exemplo, reconhecer os obstáculos ali na frente, interpretar [a imagem] que chega na câmara, saber o que aquilo é, saber que decisão tomar se vai mudar de faixa, se vai acelerar, calcular rota, cada uma dessas coisas, agir em caso de uma colisão iminente, cada uma dessas pequenas ações são diferentes machine learnings que funcionam. Claro que no serviço de passageiros aqui tem uma hierarquia, um tem uma prioridade maior do que o outro, até porque em caso de emergência o carro tem que ter uma prioridade de saber o que ele vai fazer. Mas tudo isso também são processos de machine learning

E vários exemplos que a gente citou em outros episódios, alguns exemplos que eu já falei que eu trabalhei aqui, eu citei o exemplo, no episódio quatro, da sala cirúrgica, que eu falei que eu trabalhei para a gente otimizar, e também quando eu falei no projeto que eu trabalhei na companhia elétrica da Pensilvânia, de prever se haveria falta de eletricidade ou não, e por quanto tempo, inclusive nesse episódio era pra gente estar com a Patrícia aqui também, teve uma falta de eletricidade na casa dela e ela não conseguiu gravar com a gente…

Kézia: Se você tivesse feito o algoritmo lá pra cidade dela, a gente saberia que ela ia ter falta de luz hoje e teria marcado para outro dia, não é? (risos)

Igor: Exatamente. Então tudo isso é machine learning. E machine learning também é muito baseado em estatística, como a gente vai falar depois, aqui não são todos os exemplos, a gente pegou uns exemplos pros ouvintes entenderem, mas exemplo, assim, tem milhares e milhões de exemplos de machine learning.

Kézia: Só pra comentar [sobre] os carros autônomos, que pra mim eu acho eles uns dos melhores exemplos de machine learning que existem, porque é muito literal, sabe, você pegou carro e você ensinou ele a aprender e você bota ele na rua e ele aprende enquanto anda, literalmente, a cada metro que ele anda ele está aprendendo e aí, porque ele sabe como aprender, ele sabe tomar as decisões. Então eu gosto muito desse exemplo.

Igor: É claro que ele não aprende só andando na rua, ele também tem simulações, mas ele aprende muito em campo, mesmo, quando eles põem para rodar numa área, num autódromo, alguma coisa com obstáculos, etc., ele aprende bastante.

HISTÓRIA

Kézia: Pois é, Igor, de onde veio o machine learning? Qual a história?

Igor: Então, a gente fala muito de machine learning recentemente, então o ouvinte pode pensar que é uma coisa que surgiu semana passada, ou há cinco anos atrás, mas a história do machine learning é bem antiga. Quando a gente fala em machine learning, vamos pegar um pouco a história da inteligência artificial em si, vamos pegar uma coisa mais geral. 

A gente falou de forma muito breve, muito parcial em outros episódios, quando a gente abordou inteligência artificial, mas agora a gente vai falar com um pouco mais de detalhe. Claro que não com muito detalhe, porque senão [vira] um episódio sobre a história da inteligência artificial. Mas só para o ouvinte ver que as coisas incríveis que a gente consegue fazer, é por causa de um trabalho de várias pessoas. Tem uma frase genial do Newton, que ele falou que só conseguia enxergar longe porque se apoiou nos ombros de gigantes, isso vale para toda a ciência, inclusive, não poderia ser diferente, nessa área de ciência de dados, nessa área de inteligência artificial. 

Então antes dos anos 50, e a gente falou que tem aquela questão de máquinas autônomas, essa coisa na ficção, mas vamos focar mais na parte de quando isso passou a ser de fato utilizado.

Antes dos anos de 1950, você teve um passo inicial importante para que tudo isso fosse possível, que foram diversos métodos estatísticos que foram descobertos e refinados para que a gente conseguisse chegar hoje. Então a gente não consegue falar de machine learning, de inteligência artificial no geral, sem a existência, por exemplo, de técnicas como amostragem, a própria probabilidade que a gente falou no episódio sete, sei lá, o teorema de Bayes, Markov, tem várias e várias questões que envolvem a questão da estatística e da probabilidade. Sem elas, não haveria isso. Basicamente, a inteligência artificial envolve neurolinguística, ela envolve várias outras áreas, envolve filosofia, envolve várias áreas, mas do ponto de vista da execução, o fundamento, a raiz ali, o DNA da inteligência artificial é a estatística. Várias técnicas estatísticas muito importantes foram descobertas ali na primeira metade do século XX. Os grandes nomes da estatística [de] que a gente fala são desta época.

Aí houve a Segunda Guerra Mundial e aí um cara se sobressaiu bastante nessa época, não nos campos de batalha físicos, mas nos campos de batalha mais assim intelectuais, foi o Alan Turing, que a gente já citou ele várias vezes aqui. O Alan Turing foi um dos primeiros caras a começarem a pensar que as máquinas poderiam, um dia, se tornar inteligentes, e aí ele concebe a ideia do teste, o teste de imitação que depois ficaria conhecido como Teste de Turing. 

É muito importante o Teste de Turing porque é a primeira vez que a gente, na história da ciência, da matemática, que a gente começa a não só pensar que seria possível — pensar que seria possível isso já é mais antigo –, mas começar a teorizar em cima da máquina ser inteligente. Rede neural, que eu falei há um pouco tempo atrás, que eu falei que deep learning é [um tipo de] rede neural, é uma coisa que vem dos anos 50. A primeira rede neural foi criada em 1951. Claro, imagina os computadores em 1951! Eles eram muito primários, então os primeiros conceitos de redes neurais eram muito, muito simples. Já em 52, não utilizando rede neural, mas em 52 a gente já tem a primeira máquina capaz de jogar xadrez, usando algum tipo rudimentar de inteligência, de aprendizado. E aí, a gente, em 1957, vai descobrir uma rede que a gente chama de Rede Perceptron, que não tem nada a ver com Transformers, o nome parece, mas é um tipo de rede neural, que inclusive é utilizada até hoje. E, em 1967, dez anos depois, eu estou resumindo aqui, é [descoberta] uma técnica que é chamada de Nearest Neighbors, que é uma técnica muito utilizada, por exemplo, para clustering, que é o agrupamento de que a gente vai falar depois. 

Em 1969, tem um evento muito importante nessa área, que é a publicação de um paper que pelo Marvin Minsky e pelo Seymor Papert que eles mostram que as redes neurais de então tinham várias limitações e elas só se enquadravam em casos muito específicos, muito simples, que quando você, por exemplo, criava mais camadas de uma rede neural, ela se tornava tão genérica que no final ela se tornaria inútil. Então aquilo meio que joga um banho de água fria nessa pesquisa de rede neural, a gente fala que tem uma espécie de um inverno de inteligência artificial, fica vários anos sem ter muita pesquisa nessa área, mas mesmo assim avanços acontecem. Então, por exemplo, uma técnica chamada de back propagation, que tem a ver com rede neural, ela é de 1970. Então são coisas muito antigas que a gente estuda hoje ainda.

O primeiro protótipo de carro autônomo não foi aquele que tentou matar a Ana Maria Braga, ele é de 1979 e foi criado lá na Universidade de Stanford, na Califórnia. E dando uma adiantadinha aqui na linha do tempo, em 89 foi descoberta a técnica de reforço de aprendizagem, de que a gente vai falar depois, em 89 também foi criado o primeiro software de machine learning comercial, ou seja, o primeiro software de machine learning que é vendido comercialmente para empresas, antigamente era apenas de uso acadêmico, teórico, para funções muito específicas, eu estou falando de 89. Em 1995 [são] criados os algoritmos de Random Forest, de que a gente vai falar depois, “florestas aleatórias”, que é quando a gente fala de classificação. Em 95 também é criado o Support Vector Machine e em 97, se o ouvinte não é tão jovem vai se lembrar, eu lembro muito bem que foi muito divulgado na mídia, o computador da IBM, o Deep Blue, venceu o campeão mundial de xadrez, o Gari Kasparov, o russo, na época soviético – ah não, já era russo, já não tinha mais União Soviética…

Kézia: Em 97, já…

Igor: É, o Gari Kasparov. Em 1997 eu ainda tinha a bandeira da União Soviética no meu quarto, por isso que, enfim… Para você ver como eu sou velho, em 97 eu já estava na faculdade… 

Mas enfim, em 2006, há bastante tempo, a Netflix lança um prêmio para quem conseguisse desenvolver o melhor algoritmo pra sugestão de filmes. Esse prêmio ficou alguns anos até eles pagarem, era um prêmio de um milhão de dólares. Uma curiosidade aqui pro ouvinte, teve um time que ganhou esse prêmio, a Netflix pagou o prêmio, mas ela não utilizou o algoritmo deles, ela utilizou o algoritmo de quem ficou em segundo lugar, porque quando tentaram utilizar, botar na prática, com a massa de dados gigantesca que eles já tinham em 2006 de clientes, porque a Netflix já tinha uma massa grande de dados, porque eles faziam um esquema — faziam não, fazem, nos Estados Unidos até hoje, eu sou assinante — de aluguel de DVDs e Blu-rays por correio: chega na sua casa, assiste o filme, devolve e tal. Eles já tinham muitos usuários, então quando eles pegaram aquela base de dados, meio que o algoritmo do time que ficou em primeiro lugar era impossível de ser utilizado, porque ele demoraria uma eternidade, demoraria mais tempo pra sugerir o filme do que a gente demora para escolher o filme da Netflix. Mas enfim, eles lançaram esse prêmio de um milhão de dólares e aí várias outras empresas começaram a pensar em ter essa ideia: em vez de ficar tentando procurar pessoas para contratar, para resolver seu [problema], eu posso lançar um prêmio, dou um valor, e aí acadêmicos, sei lá, pessoas do mundo inteiro podem tentar encontrar a melhor solução, eu faço um julgamento e escolho qual é o software vencedor.

Kézia: Esse negócio da Netflix parece aqueles programas de calouro, sabe? De música, The Voice, que tem o cara, o vencedor, só que ele nunca faz sucesso, quem faz sucesso é quem fica em segundo lugar.

Igor: É tipo isso.

Kézia: É igual o Adam Lambert, ele não ficou em segundo lugar lá no American Idol, alguma coisa assim? Quem ganhou, a gente não faz a mínima ideia. 

Igor: Pois é. Isso é bastante comum. Eu não sou muito versado nesses programas, mas acho que ouvi falar uma coisa assim mesmo. Enfim, em 2009, é criada a ImageNet, que eu uso quando vou fazer, por exemplo, deep learning, que muita gente usa, que é basicamente uma biblioteca gigantesca de modelo de rede neural de imagens para você treinar seus algoritmos, imagens de diferentes tipos.

Em 2011, é um software muito bom, um machine learning muito bom da IBM chamado Watson vence uma competição do Jeopardy, é tipo um programa de auditório de perguntas e respostas, só que aqui é de resposta e pergunta, que tem, no SBT fazia muito isso, esse tipo de programa de competição de perguntas e respostas, então o IBM Watson ganhou esse programa, competindo com campeões do jogo.

Em 2014, a gente vai chegando mais perto da timeline atual, o Facebook lançou o primeiro algoritmo deles de reconhecimento facial, inclusive eu conheci, o time do Facebook que faz esse tipo de coisa não fica na Califórnia, fica aqui em Boston, boa parte do time deles de inteligência artificial e machine learning fica aqui, e eu conheci num congresso, na palestra do cara que fez isso e que lidera esse negócio. Ele tinha uma palestra muito legal: “Como o Facebook identifica peitos”, coisa assim. Porque tinha a polêmica na época, que ele ficava tampando, censurando seios de mulheres amamentando.

Kézia: Mas esse negócio é bem interessante, porque a partir daí toda foto que você posta no Facebook ele reconhece automaticamente que é você, daí se você falou pro seu chefe que você estava doente e foi pra balada, ele te marca na foto, tá?

Igor: Exatamente. E esse algoritmo é de 2014, é mais recente. Em 2016, uma coisa que acho que a gente já citou umas duas ou três vezes aqui, que é muito legal,  que o Alpha Go, que é do algoritmo do Google, ele venceu o campeão mundial do Go, aquele jogo que a gente [comentou] que a quantidade possível de jogadas é maior do que o número de átomos, eu não estou falando de estrela, de átomos no universo. Ou seja, é o jogo mais complexo que a gente tem e ele conseguiu vencer o campeão, acho que é o Lee Sedol, acho que é esse o nome dele, o coreano que é o campeão mundial de Go.

Em 2016, ficou muito famoso isso, até gravei um Anticast sobre esse assunto, que a Cambridge Analytica ajudou o voto do “leave”, do “sair” da Inglaterra, do Reino Unido, o “sair” da União Europeia, o Brexit que ainda está acontecendo e vai acontecer, segundo as nossas previsões, até 2047, ele também ajudou o Trump a se eleger, e outros líderes por aí, pelo mundo.

Em 2017 é criada a tecnologia do “deep fake”, programadores russos, não russos de Araraquara, mas russos da Rússia mesmo…

Kézia: Russos de verdade…

Igor: Tudo isso para que, em 2019, fosse criado o podcast “Intervalo de Confiança”.

Kézia: Exatamente, viu, gente?

Igor: É uma breve timeline dessa história do machine learning.

Kézia: Só rapidinho, queria retomar uma coisa que você falou, “Ah, isso já tá há muito tempo”, mas é legal chamar a atenção dos ouvintes, eu como historiadora é um dos aspectos da História que eu adoro, é que as coisas, para elas virarem material, virarem coisas banais, elas tem um caminho muito grande, então sempre começa com uma ideia maluca, normalmente algum filósofo ou alguém de literatura especulativa, inventando alguma coisa, e no começo é tipo “Ah, que absurdo”, mas aí vai crescendo, passa para algum teórico estudar, passa para não sei o quê, e aí do nada chega na sua casa, eu acho fascinante. É muito interessante pensar que as coisas não são inventadas ontem, elas vão se alimentando das [outras] coisas, vão crescendo com o tempo, como se elas tivessem uma vida própria. Eu acho isso muito legal.

Igor: Sim, e as coisas não acontecem como num filme, que tem um gênio, que vai lá e pega alguma coisa, sei lá, radioativa, atômica, vem um super-herói e faz, sei lá, uma armadura de ferro que faz ele voar e vencer vilões da galáxia, não é assim que acontece na vida real, uma pessoa que inventa as coisas. Antigamente até era, porque era tanta coisa pra ser inventada e se sabia tão pouco que um cara [tinha que] descobrir as coisas. Mas, hoje em dia, com a complexidade que se tornou a ciência, com a quantidade de coisas que existem, demanda tempo e demanda uma equipe, é um esforço de várias pessoas para que as coisas avancem. É sempre um esforço conjunto. É como a gente aqui, que tem uma equipe de nove, na verdade agora de dez pessoas, enfim, para colocar este podcast no ar para vocês, um processo sempre coletivo.

Kézia: Sim, é um trabalho de formiguinha também porque se você pensa que sei lá, em 1950, quando o Turing ficava falando essas coisas, as pessoas achavam ele maluco, mas aí apareceram mais umas pessoas que concordaram até chegar em alguma coisa que realmente transformou a realidade, entendeu? Eu acho que o trabalho de pesquisa, o trabalho especulativo, o trabalho puramente intelectual, eu valorizo bastante, porque ele construiu a fundação para as coisas, mas também não vamos ficar só nisso, né gente, a gente não vai ficar só inventando coisa que a gente nunca vai conseguir fazer nada. Eu acho que, como você disse, é um trabalho em conjunto entre a pessoas, que é o intelecto criador e a pessoa que é o executor, que vai lá e fala “vamos botar isso pra frente para ver como funciona”.

Igor:  Pois é. E já que você falou em como funciona, aproveita já a deixa e explica pra gente como funciona machine learning.

CLASSIFICAÇÕES

Kézia: Então… Agora saindo um pouco da parte histórica e entrando no que é machine learning mesmo. Existem alguns tipos de machine learning, então já dá pra perceber que pessoal de ciência da computação adora tipificar as coisas, tem sempre uma coisa e divide em vários tipos. Mas é um jeito de aproximar o conhecimento, eu acho legal.

Igor: Biólogos também se identificam…

Kézia: É, tudo tem categoria! Sse é uma folha que é um pouquinho mais roxa que a outra, aí já é outro nome. Mas aí pra machine learning a gente tem dois tipos principais, que é eles se separam de acordo com o aprendizado mesmo da máquina. Então o primeiro tipo é o supervisionado e o segundo tipo é o não-supervisionado. O que isso significa? O supervisionado precisa de um treinamento prévio pra aprender: é como se você fosse ensinar para a criança o alfabeto, aí você vai lá e coloca lá no quadro da lousa da escola o alfabeto. Lembra aí Igor, você tinha na sua escola? Tipo em cima da lousa tinha o alfabeto pintado colorido.

Igor: Na minha época era preto e branco. Eu estou brincando, tinha sim. Tinha.

Kézia: Mas então… Aí você está dando o exemplo pra criança, é literalmente aprender por exemplo. Você dá um exemplo e fala: Esse é o A, então você está dando para ela a resposta certa, para que quando ela chegar em três letras diferentes, ela já tem a resposta certa e ela vai conseguir classificar as outras. Isso aqui é um B, isso é um C,  isso é um D. Nenhum deles é A porque ele já tem um exemplo. Então o machine learning é como se fosse assim: ele treina com as respostas para poder ir pra vida real e tentar encontrar as respostas quando ela não existe. É tipo você pegar vestibular com as questões comentadas pra depois você fazer o vestibular sem as respostas.

Igor: Esse exemplo que você deu ele é ótimo do simulado e tal. E lembra do exemplo que eu estava falando daquele programinha que ele vai decidir se vai te conceder empréstimos ou não? A gente faltou da alternativa mais simples, que na realidade não é simples, porque demoraria muito mais tempo pra programar. [A alternativa] menos sofisticada que é você colocar lá uma condicional para cada uma das possíveis situações que você poderia imaginar. Com o machine learning faria diferente: não importam essas situações, o que importa é o seguinte: me dá o que acontecia no passado. Então você dá para ele lá cinco anos e ele vai ver: quando essas situações aconteciam, qual era a decisão? E poder ser que aconteça uma situação nova, que nunca aconteceu antes, mas, por aproximação, ele conseguirá saber qual será a melhor decisão a ser tomada, ou qual que é a decisão não necessariamente a melhor, porque a questão de melhor ou pior tem toda uma questão filosófica por trás, mas qual que é  a decisão mais condizente com a política daquele banco, daquela financeira, a ser tomada. Então é basicamente assim que funciona este tipo de treinamento supervisionado.

Kézia: Só que aí ele pode, o supervisionado pode incorrer em dois erros ou duas coisas que podem ser um pouco negativas: primeiro o que a gente chamaria de overfitting, que seria em português muito acurado, super acurado, alguma coisa assim.

Igor: Posso dar uma tradução muito precisa: o overfitting poderia dizer “quando a esmola é muita, o santo desconfia”.

Kézia: Isso. Exatamente isso. Certinho. Porque quando você treina o seu algoritmo de machine learning, você obviamente tem uma margem de erro, a gente já falou sobre isso. Às vezes ele vai acertar, às vezes não. É um modelo bom (ou não) é quando ele tem uma margem de erro pequena (mais acerta do que erra), mas ele nunca acerta completamente. Se o seu modelo acertar completamente, aí tem um questão de overfitting, porque ele aprendeu os erros também, então quando você trouxer ele para o mundo real, ele não vai conseguir generalizar nada,  ele não vai conseguir ver porque ele já ele aprendeu com os erros e ele meio que já fechou o que quer e não está aberto a coisas novas então. Então se ele não tem um erro, não tem um parâmetro de erro no modelo, ele não vai saber, não vai ser muito bom para prever nada, ele vai ser ótimo para prever o que ele já sabe, mas ele não vai conseguir aprender algo novo.

Igor: Exatamente. É basicamente é assim: o overfitting é o seguinte, exatamente isso só dando um outro exemplo. O overfitting é basicamente você dá os dados para o algoritmo treinar  e ele é muito bom, mas só no treino; quando você dá dados que ele não conhece, ele não é bom. A gente vai depois falar o porquê disso e tal. Às vezes é porque, não é porque duas pessoas tem exatamente as mesmas variáveis, exatamente a mesma idade, ou mesmo não sei o que etc. que elas vão se comportar da mesma forma. Deixa eu dar um exemplo fora do mundo machine learning: vamos pegar, por exemplo, eu e a minha esposa, se pegar o nosso gosto musical ele é extremamente parecido. A gente gosta de Pink Floyd, de Metallica, de Iron Maiden, de Beatles, de Queen, de Barão Vermelho, de Mutantes, em muitas coisas a gente gosta das mesmas coisas.  Mas aí você vai pegar, por exemplo, uma banda aqui, sei lá, o Megadeth, ou o Meshuggah, sei lá, um extreme metal nórdico… Aí a gente começa a separar porque ela não gosta e eu adoro. Então não é porque a gente tem coisas muito iguais, que a gente vai ser igual em tudo. A margem de erro é pra calcular exatamente essas variações que existem no mundo real. Por exemplo, no caso do empréstimo, você tem uma pessoa que ele ganha dez mil reais por mês, ela tem casa própria e não sei o que não sei o que não sei o que, e ela foi pedir um empréstimo e ela pagou direitinho. Não é por causa disso que toda pessoa na mesma condição também vai pagar direitinho. Pode ser que não, pode ser que sim. A margem de erro serve exatamente para a gente computar essas imprevisibilidades que existem.

Kézia: E não adiante nada! O modelo só serve se ele se ele funcionar na realidade. É aquilo: não adianta nada você fazer a coisa maravilhosa e perfeita que só funciona no laboratório, no ambiente de teste, e na vida real é igual o que o Igor falou do concurso da Netflix que a gente falou – o algoritmo deles era perfeito, mas você colocou na vida real e ele não funciona. Então é importante a gente pensar isso. E o segundo erro, que na minha opinião é o que mais acontece e que menos as pessoas estão pensando sobre, e é um dos mais perigosos, que é a questão do viés. Por que? Vamos explicar: se você dá para o seu modelo os exemplos do que deve acontecer e todos os seus exemplos não são diversos ou todos têm o mesmo parâmetro, ele vai sempre pegar nisso quando for pra vida real. E isso pode criar um viés. Exemplos clássicos, que já aconteceram e que está acontecendo, se eu não me engano acho que foi a Amazon, que tinha esse algoritmo de contratação, acho que era um algoritmo de RH e ele colocou dados de milhares de currículos e pessoas que foram contratadas para ele gerar, fazer essa triagem para o pessoal e ajudar a escolher melhor os candidatos. Ótimo! Parece muito bom. Só que aí quando você foi analisar os resultados desses dados, você percebeu que o algoritmo nunca recomendava nenhuma mulher. Nenhuma. Todas as recomendações do algoritmo eram homens e a maior parte brancos, heteros, e o resto que a gente já sabe. E aí a gente fica pensando “por quê?”. Porque o algoritmo acordou um dia e decidiu que não gostava de mulher? Não! É porque se você for olhar as contratações que a Amazon tinha feito nos últimos anos, que foram os dados que ela colocou no algoritmo, eram todos homens. Então o viés que já existia na vida real, que era feito por pessoas, entrou pelo algoritmo porque ele foi treinado neste tipo de material. Então, de novo, a câmera de reconhecimento que não reconhece negros, que não reconhece asiáticos, é exatamente isso: porque os dados que foram colocados para treino desse algoritmo são todos dados com viés.

Igor: Exatamente.

Kézia: Então é como você falou: são todos dados com viés.

Igor: Como você falou: se os dados que ele vai usar para treinar, o histórico, tem um viés, tem um preconceito, ele vai ser preconceituoso porque o algoritmo ele vai ser tão bom quanto os dados que ele tem. Existem técnicas que a gente utiliza para reduzir, viés é um coisa que a gente consegue inclusive calcular, mas existem técnicas para reduzir estes tipos de viés que a gente quer reduzir. Então a gente sabe que pode haver um viés sexista ou racial, por exemplo, ou mesmo de região etc… Então, se você sabe que existe isso, uma coisa que você vai fazer é primeiro excluir esta variável. Por exemplo, se eu estou fazendo um algoritmo de contratação, eu excluo a variável sexo e etnia. Eu excluo essas variáveis e o algoritmo não vai saber qual que é o gênero e qual que é a etnia, a raça dos candidatos. Então vai ficar este espaço vazio ele vai ter que se basear nas outras variáveis para tomar uma decisão.

Uma outra alternativa é você colocar um determinado peso, aí você corrige. É como se você colocasse um sistema de política afirmativa, só que matematicamente. Então você vai colocar um peso, isso tudo você consegue calcular, você vai multiplicar por 0.81 ou  por 1.2 uma determinada coisa para você favorecer, por exemplo, mais mulheres para compensar o desfavorecimento que elas têm, para que no final aquilo seja meio a meio.

E uma outra coisa além disso, uma coisa que Harvard faz bastante, uma coisa que, inclusive, um dos primeiros projetos que trabalhei foi com isso, é não no caso de contratação, mas de aceitação de alunos. É você fazer uma auditoria, aí não é nem tanto questão de machine learning, é uma questão de estatística mesmo, de estudo etc. É você fazer uma auditoria para saber se existe um viés qualquer que você queira evitar em seus dados, então o machine learning, nestes casos, eles têm que ser auditados. Em alguns países até existem leis que obrigam qualquer tipo de auditoria em sistemas automatizados para evitar esse tipo de coisa.

Kézia: Isso. Só no  âmbito da ciência de dados, antes da gente chegar no machine learning, tem um passo anterior que a gente chama de análise exploratória de dados, que é você conhecer os seus dados. Então essa parte é muito importante porque se você conhece os seus dados, você sabe isso. Vvocê sabe identificar viés, você consegue identificar todas essas coisas para poder evitar esses passos, esses erros. Então às vezes a gente, o cientista de dados, a parte mais técnica, ele acha que não é tão importante assim essa parte, é só passar, eu jogo o algoritmo lá e vai fazer, vai ficar tudo lindo. Mas saber quais são os dados, de onde eles vêm, o que eles estão dizendo, no que você vai utilizar… isso é muito importante. Então essa parte de análise é também importante, não é só a máquina que faz tudo hoje em dia.

E aí o outro tipo é o não supervisionado. Qual a diferença? A diferença é bem óbvia de acordo com os nomes: enquanto no supervisionado você dá para ele um treino, a resposta certa, pra depois ele descobrir sozinho as [outras] respostas, nesse ele não tem resposta certa; você dá para ele os dados, ele vai analisar. Uma vez eu já fiz este exercício numa aula de data science e foi bem engraçado. O professor chegou assim com uma caixa de lego, e jogou para a gente, faz uma análise desses dados e separa ai. E o que a gente fez? A gente pensou: vamos dividir em cor, vamos dividir em tamanho, é isso que o modelo faz, ele vai começar a ver características de coisas que ligam estes dados ou alguma coisa que faz eles serem diferentes dos outros, categorias, e vai analisando eles desse jeito. Então ele não tem uma resposta certa do que aquilo é ou não é, então ele vai tentando, ele vai descobrir em tempo real quais são as estruturas daqueles dados e aí seria uma abordagem diferente do supervisionado. E aí, de novo, para você escolher entre um e outro é interessante prestar atenção em que tipo de pergunta você está fazendo porque às vezes um funciona para uma coisa e o outro funciona para outra coisa

Igor: Exatamente. E o não supervisionado a gente vai falar melhor mais pra frente quando a gente falar de um tipo específico que é a estrutura de clustering.  Machine learning basicamente você tem o supervisionado e o não-supervisionado, mas você também tem um outro tipo, que não é tão falado, que é o que a gente chama de reforço de aprendizagem. Existe obviamente um pré-treinamento, então ele é quase como se fosse um supervisionado, mas durante a execução deste algoritmo, ele aplica técnicas, tem um negócio chamado q-learning  que usa bastante isso, ele vai aplicando técnicas para ele decidir o que que vai fazer. Geralmente você utiliza este reforço de aprendizagem quando você tem alguma coisa que é executada em etapas. E esse processo mais comum é quando você utiliza, por exemplo, um sistema de recompensa e punição. Um exemplo clássico para a gente estudar isso, que é o mais utilizado, é em jogos. Então você usa sua máquina para jogar xadrez, então ela vai calcular, das possíveis jogadas dela, qual que vai ser a recompensa e a punição para saber qual que é a melhor jogada. No exemplo que a gente falou em alguns episódios anteriores, a gente citou aqui também, que é o alpha go, que é um jogo extremamente complexo, as pedrinhas brancas e pretas num tabuleiro tem vários tipos de movimentos. Quando ele jogava as partidas, são bem interessantes, quando ele jogava as partidas contra jogadores humanos, primeiro que ele jogava de um jeito muito diferente do que uma pessoas jogaria, então dá para ver que ele não estava necessariamente aprendendo com jogadas anteriores, com jogos anteriores, como normalmente os primeiros programas que jogavam xadrez faziam (pegavam jogos clássicos e iam aprendendo todos os tipos de movimentos). Aqui não porque aprender todos esses movimentos é algo muito complexo, a quantidade possível de jogadas é maior do que o número de átomos do universo. Seria impossível treinar com tudo isso. Então o que ele fazia? Ele fazia um cálculo de punição e recompensa. Para cada movimento que ele ia fazer, ele sabia qual seria o prejuízo e qual seria o benefício. Só que tem duas forma de você fazer: você pode fazer isso jogada a jogada ou você pode calcular qual que é minha punição e benefício/recompensa desta jogada ou no geral – qual será minha punição e recompensa ao final do jogo –  que era o que o Alfa Go fazia. Então, quando ele começava a jogar os especialistas, até da própria equipe dele ficava analisando o jogo [e pensando] “acho que ele vai perder”. Ele tá calculando que está com chance de 70% de chance de vencer, mas ele vai perder, porque ele está perdendo terreno e não sei o que, enfim… O que que eles não conseguiam entender é que de repente passava um ponto assim que o jogo começava a virar e ele ganhava de forma surpreendente e avassalador. Por quê? Ele estava calculando a recompensa final, então ele fazia movimento que pareciam ridículos, mas é porque aquilo estava armando um cenário, armando a cama para ele dar o bote lá na frente. O carro autônomo usa algo também parecido de fazer aquele cálculo de cada movimento: se elevai mudar de faixa agora, se não vai e etc., para primeiro ver se eu consigo chegar ao destino em menor tempo, com o menor gasto de combustível, mas com maior segurança, menor probabilidade de acidente etc. Então também funciona basicamente assim: ele tem um pré-treinamento, mas é uma decisão naquela hora ali, no momento, então a gente chama isso de reforço de aprendizagem.

Kézia: O que eu acho legal é que esse é o mais parecido com o aprendizado orgânico, o aprendizado humano, a gente aprende erro e tentativa. Coloca o garfo na tomada, toma um choque, então da próxima vez não vou fazer isso mais. É engraçado! Eu li em algum lugar que eu não vou conseguir trazer esse dado, que um amigo meu comentou, que nesse reforço de aprendizado teve um jogo que a máquina parou de jogar, ele jogava, jogava, jogava só que ele só perdia, aí teve uma hora que o algoritmo decidiu que a melhor decisão era não jogar mais.

Igor: Sim. Esse exemplo é bem legal.

Kézia: Tipo é isso: ele calculou qual seria o melhor resultado; o resultado era, “não vou jogar mais, eu estou perdendo”.

Igor:  E uma coisa interessante quando a gente fala de machine learning, existe uma quantidade gigantesca de diferentes tipos de algoritmos. Quando eu falo de algoritmos, para que o ouvinte que não tem familiaridade com esse termo entenda, o algoritmo é como se fosse basicamente o seguinte: como se fosse uma técnica diferente que eu quero resolver um problema. Por exemplo: eu quero saber se um e-mail é spam, spam, o ram, ram que, ele chama o que seria um e-mail bom. Ou eu quero saber, sei lá, qualquer coisa. Machine learning poder saber qualquer coisa como conceder ou não um empréstimo a uma pessoa. E tem diversos tipos de algoritmos, de técnicas para fazer isso. E quando eu falo que são diversas são dezenas de dezenas, talvez mais. E no final a gente acaba utilizando sei lá, uma dúzia ou mais são aqueles que você mais utiliza, mas existem muitas técnicas. Por que que você tem diferentes tipos? Porque cada tipo de problema você vai ter uma forma diferente de abordar, então um determinado tipo de técnica vai ser mais eficiente em um tipo de problema, outro tipo de técnica será mais eficiente em outro tipo de problema. Então por isso que tem essa diferença. Só que muitos cursos muitas pessoas quando estudam ou ensinam machine learning, eles focam o estudo baseado nisso: vou estudar agora, por exemplo, uma regressão tipo laço ou ridge regression ou vou estudar alguma coisa do gênero como k means clustering alguma coisa assim. Eu não gosto deste tipo de abordagem. Eu acho que você focar no algoritmo em si fecha sua cabeça num mundo muito técnico. Eu gosto de um outro tipo de abordagem que eu uso nas minhas aulas. Minha abordagem é:  pensa no problema que você tem que resolver, no tipo de problema, aí a partir do problema que você vai ver quais são as armas que você tem disponíveis, quais são os tipos de técnicas disponíveis, aí que você vai testar mais de uma para ver qual se encaixa melhor. Pensando nisso, Kézia, fala pra gente quais são os tipos mais comuns de problemas em que a gente utiliza o machine learning para resolver?

Kézia: Aqui neste episódio, a gente vai falar de três tipos. Como o Igor falou, tipos já existem muitos, mas geralmente a maior parte dos problemas que a gente utiliza machine learning atualmente, problemas de negócios ou  problemas de cunho mais acadêmico são destes tipos: o primeiro é “isso é A ou isso é B?”. Essa transação é legítima ou fraudulenta? Isso é um spam ou não? Esse paciente vai viver ou morrer? Esse tumor é benigno ou maligno? É o clássico do machine learning! Essa foto aí é um gato ou um cachorro? Então é isso: é um ou outro; é aquele método de output 0 ou 1, o binário, isso é isso ou isso é aquilo.  O outro tipo é: qual o valor disso? A gente vai calcular! Qual vai ser a temperatura amanhã? Qual a probabilidade dessa transação ser fraudulenta? Tem um também clássico que fala dos preços das casas: qual seria o valor dessa casa,? Depende. De acordo com essas características, qual seria o valor dela? E aí tem outro tipo também, que está mais para o não-supervisionado, que é: como isso está organizado? Esses clientes são mais parecidos entre si? Aí cria aqueles perfis, sabe aqueles perfis de banco, tem lá o perfil da pessoa que é poupadora, o perfil da pessoa que é aventureira, esse tipo de coisa é desse jeito.  Ou quais doadores têm mais chance de influenciar outros doadores? Isso é aquele que o Igor já falou em outros episódios, que ele trabalha lá na Harvard. Quais pessoas são mais influenciadoras de outras? Isso também traz para a rede social: eu quero atingir o maior número de pessoas; onde que eu ponho isso? Qual pessoas que tem esse alcance maior? Então esses são os tipos mais comuns em que a gente utiliza o machine learning atualmente.

Aí a gente vai entrar… deixa eu explicar para vocês… Primeiro tipo, aquele que eu chamei de binário 0 e 1 a gente chama de classificação. El é um tipo de classificação supervisionado, então normalmente para treinar o algoritmo a gente pegaria, como o Igor já falou, cinco anos de empréstimos; nesses cinco anos, essas pessoas que tinham essas características conseguiram empréstimo;  essa pessoa que tinha essa caracteriza não conseguiu; então vai lá 010101 conseguir, não conseguir, e aí a gente treinando esse algoritmo daqui pra frente quando chegar um pedido novo esse algoritmo vai rodar e vai falar “essa pessoa sim recebe um empréstimo”, “ essa pessoas não”. Ou outras coisas: por exemplo, tem um que é do gato e do cachorro; a gente vai colocar várias imagens pro algoritmo e vai falar “esse é um cachorro, esse é um gato” e aí a gente vai colocar uma imagem nova e aí vai perguntar “isso é um cachorro ou isso é um gato?”. Então ele vai utilizar esse treinamento que ele fez com as respostas certas para conseguir saber qual é a resposta que ele tem que colocar nessa situação nova.

Igor: Bacana …Tem alguns tipos clássicos, mais comuns, mais utilizados, de algoritmos de classificação. Só que antes de explicar isso, eu vou fazer uma brincadeira aqui. Eu vou pedir para a Kézia pensar em algum dos membros do Intervalo de Confiança, algum dos participantes. Pensa nessa pessoa, e, quando você pensar em alguém, não me fala quem é, não fala pro ouvinte, só pensa e fala “pensei”. Eu vou fazer perguntas, que você só vai responder com sim e não e ei vou tentar adivinhar quem é, ok? E já peço desculpas de antemão aos meus colegas se eu fizer alguma brincadeira aqui. Se eu ofender, não é minha intenção.

Igor: É mulher?

Kézia: Sim.

Igor: Mora em São Paulo?

Kézia: Não.

Igor: Edita podcast?

Kézia: Sim.

Igor: É a Nicoli?

Kézia: Sim!! (risos)   

Igor: Acertei. O que eu fiz aqui foi pegar todos os dados que eu tinha. São 10 pessoas da equipe. Nossa equipe a maior parte é de mulher. Eu decidi perguntar se era mulher. Mas eu poderia fazer outra pergunta, porque, de todas as pessoas da equipe, não tem nenhuma pessoa não binária. Seria sim ou não. Então eu peguei toda a nossa população e eu fui dividindo até eu reduzir o conjunto e chegar na resposta correta. Essa brincadeira que eu fiz aqui é o que a gente chama de árvore de decisão. Uma árvore de decisão é o algoritmo de classificação que faz algo muito parecido. Árvore de decisão a gente pode usar inclusive não só para classificação, para outro tipo também que a gente vai falar depois. Mas basicamente árvore de decisão é um processo que faz tudo isso aqui. Uma árvore de decisão é [do tipo] supervisionado, como a Kézia falou, então ela vai pegar dados históricos e vai fazer esse joguinho. Então, ele tem várias técnicas para calcular qual é a pergunta melhor para fazer primeiro. Se é perguntar de que Estado que é, se é mulher ou homem. Tem alguns detalhes que a gente não vai entrar aqui. Mas árvore de decisão você pode utilizar várias técnicas. Mas você tenta a cada pergunta, a cada etapa, a cada galho dessa árvore, reduzir ao máximo a quantidade de possibilidades que sobrou. Você tenta ao máximo aumentar a sua certeza. Ou, utilizando o termo mais técnico, você tenta ao máximo reduzir a sua entropia. E aí você tem a técnica mais correta? A que você consegue chegar na resposta com o menor número de perguntas possíveis. Então o algoritmo de árvore de decisão, ou decision tree, o termo em inglês, ele vai fazer o treinamento para conseguir chegar nisso daí. A melhor pergunta para eu fazer primeiro era se era mulher ou não porque eu já eliminava metade das possibilidades, do que se eu perguntasse se usa óculos como a minha primeira pergunta.

Existe um tipo mais avançado de árvore de decisão, que na verdade não é uma árvore de decisão, é uma floresta, que a gente chama de Random Forest (random = aleatório). A tradução ao pé da letra seria floresta aleatória. Sem o recurso visual é difícil de explicar, mas é como se ele rodasse várias árvores de decisão, sorteasse algumas possibilidades e veria daquelas qual tem o desempenho melhor. E aí ele vai escolher aquela árvore de decisão para saber o modelo selecionado, digamos assim. Então isso são tipos de classificação. Mas tem outras coisas mais que a gente pode fazer pra saber se um algoritmo de classificação é bom ou não.

Kézia: Uma das coisas que a gente pode utilizar (eu sempre acho esse nome muito engraçado) é uma coisa que se chama matriz de confusão. E ela parece um pouco confusa mesmo pra entender, mas quando a gente entende o conceito fica mais fácil. A partir da matriz de confusão você pode verificar a acurácia desse modelo de classificação. Como que você monta uma matriz de confusão? Você vai fazer como se fosse um jogo da velha, sabe, aquela tabela, de um lado você vai colocar os dados reais que seria o que acertou “sim” ou “não”. O empréstimo foi dado ou não foi dado? E o que o seu modelo previu? O seu modelo previu que nesse caso vou dado e nesse caso não foi dado. Então você cruza esses dados e tem uma matriz de confusão. Por que você faz isso? Pra poder verificar os falsos positivos e os falsos negativos que a gente chama de erros tipo 1 e tipo 2. Quando você previu que ia dar o empréstimo e realmente ele foi dado, o seu modelo acertou. A acurácia está boa. Se você previu que não deveria ser dado e não foi dado, ótimo. Também está ótimo. Mas e os outros casos? Os casos que você previu que ia ser dado e não foi dado e no caso que você previu que não ia ser dado e foi dado, esses são os falsos positivos e os falsos negativos. É legal você ter a noção desses erros, porque dependendo do tipo de pergunta que você faz, você pode ter uma tolerância maior ou menor a esses erros. Um exemplo que eu sempre vejo e acho muito bom é o exemplo de câncer. Se você está verificando quais pacientes tem câncer ou não, você vai ter uma tolerância menor pra falsos negativos. Por quê? Porque se a pessoa tem câncer e o seu modelo previu que ela não tem é muito mais perigoso que uma pessoa que não tem e o seu modelo disse que tinha. Porque aí a pessoa só vai fazer mais exames e verificar que não tem nada. Mas caso ela tenha, você diz que não tem e ela volta pra casa e a doença segue, é muito mais perigoso. Certo? Então, dependendo da pergunta você tem uma tolerância menor a esses erros. E o contrário também. No exemplo dos empréstimos, o falso positivo é muito mais perigoso, porque se você disse que ela vai receber o empréstimo, mas na verdade não deveria receber, você está perdendo dinheiro. Você está dando dinheiro para uma pessoa de quem você não vai receber de volta. Esses tipos de erro mexem na acurácia do seu modelo e você vai ter que ver de acordo com a sua pergunta e com o seu objetivo o que balançar ou não. Lembrando o que a gente falou: pra não ter overfitting, os erros são importantes. Não ter nenhum erro é bem preocupante. Sempre vai ter uma margem de erro. Como você vai analisar esses erros é o que vai dizer se o seu modelo é eficaz ou não. Entendeu?

Igor: Exatamente

Kézia: Eu falei certo, Igo ? Matriz de confusão é confusa (risos).

Igor: Pois é! Mas o ouvinte vai entrar no nosso Instagram e vai ter as imagenzinhas explicando e tal e vai ficar mais fácil de entender. Então o que a Kézia falou pra gente foi mais uma vez foi aquele tipo primeiro de pergunta ou de problema que a gente resolve com machine learning, que é isso é “a” ou “b”? Isso é “x” ou “y”? Isso é aquilo ou aquilo? Ou seja, o de classificação. E teve o outro tipo que ela citou que a gente vai tentar calcular o número. Por exemplo qual é o valor que este imóvel vai valer daqui um ano? Qual será a cotação do dólar amanhã? Qual a temperatura amanhã? Esse tipo de coisas onde você vai prever um número ou qual a probabilidade de acontecer determinada coisa. Qual a probabilidade do meu querido New England Patriots se classificar para o próximo Super Bowl. E eu vou dizer 100%. A gente sabe que não é e a gente pode calcular isso. Quando a gente tem um problema em que você quer calcular um valor, você quer prever um valor numérico, a gente fala que esse é um problema do tipo de regressão. Então aqui regressão não tem nada a ver co você ver as suas vidas passadas (risos). É você ver o número futuro, é basicamente um número.

Kézia: A regressão é quando você coloca a Inteligência Artificial sob hipnose? (risos)

Igor: (risos) Pois é! Não é isso, não é isso! Como eu falei, você tem perguntas de probabilidades se vai chover ou não? Quantos downloads do próximo episódio do programa Intervalo de Confiança se a gente tiver um tema “x” ou “y” por exemplo? Esse tipo de coisa. Quanto eu devo cobrar de juros para determinado empréstimo. Quando está prevendo um número, a gente fala de um tipo de regressão. E quando a gente pensa em regressão, regras são normalmente é o primeiro tipo de problema em machine learning que se explica normalmente em aula, porque eu acho que é o mais fácil de entender. Porque ele é o mais fácil de perceber que é uma coisa matemática. Classificação também é. Você calcula entropia, por exemplo, que é uma coisa matemática. Mas regressão é o mais fácil de entender o que é. Por exemplo, vamos pensar o seguinte. Digamos que eu quero prever quantos pacientes vão dar entrada na emergência do hospital amanhã. Porque prevendo isso eu consigo saber se vou colocar mais ou menos funcionários para atender, enfermeiros, médicos etc. Vamos lá! Quais são os dados que eu tenho? E vou pegar dados de dez anos que tenho do hospital, de cinco anos que tenho do hospital. Então eu tenho, sei lá, o dia do mês com determinado atendimento. Pode ser que no começo, no meio ou no final do mês tenha mais ou menos gente. Não sei. Qual o dia da semana? A gente sabe que no fim de semana tem mais pacientes. Qual é o mês do ano? Pode ser que uma época mais fria vai ter mais ou menos pacientes. Qual a previsão do tempo para amanhã? Se chove tem mais gente, se não etc. Qual a quantidade de eventos grandes que tem perto da região? Enfim… Você pega uma quantidade diferente de condições de variáveis e você vê quando aquelas condições aconteceram o que foi que aconteceu. Aqui eu estou tentando prever um número. Não é uma árvore de decisão, não é uma classificação. Então, você tem que pensar nisso como se fosse uma coisa matemática. Como se você tivesse construindo uma equação matemática. Vou dar um exemplo bem simples. Digamos que o número final de pacientes, não é tão simples assim, só pra gente entender, é 1.76, vezes os dias do mês, mais 2.98, vezes os dias da semana, menos 0.76, vezes os dias do ano, mais 2.07, vezes a probabilidade de chuva, elevado ao quadrado, mais 0.87 número de eventos. Enfim! Você cria uma equação matemática. Claro que não é tão simples assim. Dependendo do valor, se o valor não for numérico por exemplos. Dias da semana  você não vai usar 1, 2, 3 e 4. Porque terça-feira não é necessariamente o dobro de segunda-feira. Você vai usar o que a gente chama de XXXX… enfim… Mas não vou entrar na parte técnica aqui. Mas só pra entender que no final isso vai virar uma equação. O que quer dizer que, como é uma equação, você vai ter ali, eu quero saber o meu y, que é quantos pacientes vão chegar no hospital, quero prever isso, então basicamente se eu tenho os meus x’s, as variáveis de entrada, eu forneço as variáveis de entrada, calculo e tenho como resposta as variáveis de saída. Então, sim, basicamente é isso daí. No final você vai ter uma equação e você consegue aplicá-la. Uma coisa bacana da matemática é o seguinte: se é uma equação eu consigo representá-la através de um gráfico. Imagina uma equação por exemplo: x=x+2. É uma equação de primeiro grau. Então você vai representar isso no gráfico e isso será uma linha ou uma equação que é y=x²+2x+3. Uma equação do segundo grau, vai ser o quê? Uma parábola. Isso mostra a relação entre as variáveis. Se isso é uma linha, por exemplo, você tem uma relação linear entre as variáveis de entrada e a variável de saída por exemplo. Pode parecer muito técnico, mas calma. Basicamente o que eu quero dizer é o seguinte no final: para calcular a regressão você está criando uma relação matemática, que a gente consegue representar em um gráfico. Só que, como a gente falou, nada é perfeito. Você por exemplo previu que amanhã chegarão mil pacientes. Não quer dizer que chegará exatamente mil pacientes. Porque existe margem de erro. Você previu, baseado em dados históricos, vai chegar aproximadamente aquilo ali, mas obviamente o mundo não é sempre igual, existem imprevistos. Variáveis que você não sabia, muda uma pessoa nova para aquela região que é doente, você não sabia daquilo e aquela pessoa vai dar entrada no hospital e coisas assim. Há uma margem de erro. Não tem problema. Se você previu que vão ter mil pacientes e chegar novecentos ou mil e cinquenta. Tudo bem! Você sabia que era mais ou menos mil, então você deixou mais ou menos uma equipe pra atender mil mais ou menos preparada. O ruim seria se você previsse mil e chegasse três mil. Então temos que tentar minimizar esse erro e pra tentar minimizar esse erro tem que calcular mais ou menos o erro. O que você faz? Pega os dados históricos, coloca pro seu algoritmo criar esta equação. Ele vai treinar para criar a equação. Ele vai dizer exatamente qual o coeficiente de cada uma das variáveis e vai cria uma equaçãozinha bonitinha. Aí o que você faz? Você compara os valores que a equação calculou com os valores reais. Então, quando essas condições aconteceram, a equação diz que terão cinquenta pacientes, mas, na verdade, teve cinquenta e sete pacientes eu diria. Eu disse que tinha cinquenta, tenho uma diferença de sete, que é o meu erro. Somo todos esses erros e tem um erro total. Você pode testar dez equações diferentes e aquela equação com menor erro é a equação que você acha a melhor e a usará daqui pra frente para prever quantos pacientes chegarão ao hospital. Claro! Eu dei um exemplo muito simples de como calcular um erro. Pode usar o algoritmo, tem várias técnicas para calcular o erro, dependendo do tipo de dado que você está calculando, mas não vou entrar muito na parte técnica aqui. A gente vai fazer uma introdução ao machine learning, então não faz sentido entrar muito na parte técnica. Mas basicamente a ideia de um algoritmo de regressão é isso. Então mais uma vez: falamos de problemas de classificação, que a Kézia comentou, que é tipo isso é do tipo “a” ou “b”? Isso é um spam ou não? Eu falei agora do tipo de regressão, que se está tentando prever o valor numérico e tem um terceiro tipo que é o não supervisionado. É o tipo de agrupamento ou o termo em inglês que é clustering. Inclusiva vai encontrar clustering até mesmo em bibliografias em português. O clustering, que é criar um grupo, é um tipo de machine learning que vai agrupar os elementos pela própria característica dos elementos. Não fez o menor sentido? Então vou dar um exemplo. Digamos que eu sou a Netflix, sou o dono da Netflix e quero criar um algoritmo que vai indicar filmes. Não é tão simples assim obviamente. Eles não iam pagar um milhão de dólares com um exemplo simples assim, mas eu vou simplificar pra gente entender melhor. Eu vou pegar só o aspecto de clustering deles. Como eles vão fazer? Como é que normalmente se agrupa pessoas ou coisas, produtos etc.? Você pega as características dele e agrupa. Como é que sem usar machine learning você poderia agrupar os seus consumidores e clientes no caso da Netflix? Idade, etnia, sexo etc.

Kézia: O clássico demográfico do IBGE né?

Igor: Basicamente. Você vai usar os dados demográficos para classificar as pessoas. Só que isso tem um problema. O que você está dizendo é que todas as adolescentes gostam de um determinado tipo de coisa, todos os homens de uma meia idade gostam de determinado tipo de coisa. Mas você pode ter um monte de gente com vinte anos que só vai ver filmes da Marvel, mas você pode ter uma boa parcela de pessoas com vinte anos que verão filmes do (não identifiquei o cineasta). Você pode ter um adolescente nos Estados Unidos que tem o mesmo gosto de filmes de uma senhora na Índia. Não dá para saber. Como é que você vai fazer então? Você pega não os dados demográficos, mas você pega o dado em si, que é o quê? Os filmes que essa pessoa gostou. Então você pega os filmes que eu gostei. O Netflix me recomenda muito documentário de astronomia. Porque eu vejo muitos documentários tipo Cosmos eu vejo tudo que aparece na minha frente eu vejo. Então sempre aparece muita coisa de ficção científica relacionado com isso. Mas como é que eles sabem? Às vezes aparece um tipo de filme que eu nunca vi. Então eu olho assim e penso: “Hum! Talvez eu ache que vou gostar disso”. E como é que eles sabem? É porque tem outras pessoas no mundo que viram os mesmos filmes que eu vi, as mesmas séries que eu vi. Mas viram outros filmes que eu não vi e ele recomenda pra mim esses outros. Porque ele me colocou no mesmo grupo daquelas pessoas por termos um gosto parecido. A mesma coisa da Amazon quando te recomenda “quem comprou este produto “x” também comprou o produto “y”. Exemplo clássico é o do Walmart nos anos 1990, toda aula que a gente trabalha com dados é ensinamos isso, eles descobriram que fraldas e cerveja vendiam muito bem. Não sabiam o porquê a princípio, mas depois descobriram o motivo. Mas descobriram que fralda e cerveja vendiam bem, então começaram a colocar, à noite apenas, resolveram colocar no corredor de fraldas um totenzinho com promoção de cerveja. Aumentaram bastante a venda ainda mais. Descobriram uma relação. Então não pegaram assim “homens até tal faixa etária e mulheres até tal faixa etária”. Não, eles pegaram os produtos em si e fizeram a correlação. Isso chama-se clustering, tá?

Kézia: Então se você se sentir sozinho no universo saiba que tem alguém na Netflix que tem o mesmo gosto que você e a Netflix já te colocou nesse grupo. (risos)

Igor: Exatamente! Exatamente! A Cambridge Analytica, a gente vai fazer um episódio no futuro dessa questão, provavelmente ano que vem, que é ano eleitoral no Brasil, de correlação de dados com política. Mas a Cambridge Analytica e outras empresas de marketing político, de dados políticos, fizeram isso de categorizar toda a população, por exemplo nos Estados Unidos, e conseguiram colocar cada pessoa dos Estados Unidos numa determinada categoria usando uma metodologia chamada de (não compreendi o nome da metodologia), mas não vou entrar em detalhes. Mas eles sabiam que tipo de anúncio colocar pra poder fazer essa pessoa, por exemplo, não ir votar no dia da eleição se ela fosse eleitora da Hillary, ou mudar de voto pra votar no Trump ou alguma coisa assim. Foi um trabalho muito forte de clustering, outras coisas também, mas foi um trabalho muito forte de clustering e outras coisas.

Kézia: Mas Igor, nós estamos falando muito da teoria, do treino, como os algoritmos são treinados. Mas e quando eles vai pra vida real? O que acontece?

Igor: Pois é! A gente fala assim: “treino é treino e jogo é jogo”. Então não adianta eu pegar o meu time de qualquer esporte e deixar que ele treine com times específicos, achando que ele vai ganhar um campeonato porque ele ganhou todos os treinos. Não é verdade. Treino é treino, jogo é jogo e machine learning é uma caixinha de surpresas e estamos aqui para conquistar os três pontos ali do (não deu para entender) Enfim! Mas…

Kézia: (risos) o professor (não deu para entender) usar seu time.

Igor: Pois é! O machine learning vai treinar com os dados históricos, mas isso não quer dizer que ele vai ter um desempenho bom com dados reais. Aí várias coisas podem acontecer. O primeiro tipo é o underfelling, que é o oposto do que a Kézia tinha falado antes, do overfelling. O underfelling é basicamente o seguinte: o seu modelo, quando você está treinando os dados históricos, tem uma acurácia muito baixa. Ou seja, ele acerta muito pouco. Eu estou prevendo uma determinada coisa e eu erro a maior parte das previsões ou acerto muito pouco. Isso é o que a gente chama de underfelling. Esse problema é porque a gente tem pouco dados, ou porque estamos usando um algoritmo errado, ou muitas vezes você não tem os dados necessários. Primeira vez que eu comecei a trabalhar no projeto daquela companhia elétrica da Pensilvânia, que eu estava tentando prever queda de eletricidade, meus algoritmos acertavam de 30 a 40% das vezes. Inicialmente eu descobri que eu estava usando muitos dados e isso estava me gerando problemas. Eu estava usando muitos dados de previsão do tempo que estavam criando um ruído e estava me prejudicando. Tirei alguns dados de previsão do tempo e foquei mais em humildade relativa do ar, não sei o que etc. Melhorou um pouquinho, mesmo assim errava bastante. Depois eu descobri que eu não tinha um dado fundamental que era a localização de árvores em cada região. Quando adicionei esses dados esse número subiu absurdamente a acurácia. Passou de 80% e tal. Então underfelling é um problema clássico. Às vezes está faltando dados ou os seus dados são muito enviesados. Quer dizer, você tem um dado de só um dia da semana, de só um tipo de cliente etc. O oposto é o que a Kézia falou, que é o overfelling. O seu modelo no treino está maravilhoso, você acha que ele vai ganhar o campeonato. Beleza! Um exemplo que eu já utilizei em cursos, eu tenho um banco de dados que ele tem em um determinado ano, não me lembro qual, 2016 eu acho, eu tenho todos os arremessos feitos em todos os jogos da NBA feitos na temporada regular. Não contando play-outs. Ele tem em que momento do jogo foi feito aquele, em que minuto dos jogos, qual era o placar no momento do jogo, qual era o jogador que fez, em que ponto campo estava, tudo aquilo. Matematicamente representado. A gente usa aquilo e no final se a pessoa converteu ou não na cesta. E a gente usa aquilo para treinar o algoritmo para depois prever nos próximos jogos, que a gente não sabe se a pessoa vai acertar ou não, tentar prever antes se aquele arremesso vai ser convertido ou não. Às vezes tem gente que faz um modelo que acertar 99% . Meu Deus do céu! Vou ficar milionário fazendo apostas em jogos!

Kézia: Ele vai ser o Beef do De volta para o futuro.

Igor: Tipo isso. Que foi inspirado no Trump, inclusive. Foi divulgado recentemente.

Kézia: Sério?

Igor: É! O autor divulgou que foi inspirado no Donald Trump. O Beef do futuro, do presente futuro que não era em 1995. Enfim! Ele faz esse modelo que no teste, no treino, acerta 99%, mas quando chega na realidade acerta 20%. Ou seja, ele está muito bom no treino, mas na realidade não. Então esse é o que se  chama de overfelling. O que acontece às vezes é que você cria um modelo, mas esse seu modelo tem um determinado erro e você quer que ele fique melhor. Então você faz ajustes nele, faz ajustes e ele fica viciado naquele dado de treino. Quando pega o dado real ele não consegue. É como se você pegasse seu time, digamos que você é corinthiano e quer pegar o Corinthians para disputar um campeonato. Você bota ele pra treinar contra o Quinze de Jaú. Nenhum preconceito contra o torcedor do Jaú. Mas vamos lá. Aí o Corinthians fica muito bom contra o Quinze de Jaú, ganha todos os jogos, dez quinze jogos contra o Quinze de Jaú e fala “estou preparado”. Quando chega o primeiro jogo pego Galo e toma de seis. Aí eu acordo. Toma de seis e fala “Como assim? Eu estava ganhando de vinte do Quinze de Jaú! Como é que eu teu seis do Atlético Mineiro?” É porque você só aprendeu a jogar com o Quinze de Jaú, você não aprendeu a jogar com os outros times do campeonato que você vai disputar. É mais ou menos isso o overfelling.

Kézia: É igual o Brasil. Você pega ele, treina pra caramba e ele sabe jogar contra a Bolívia. Só que aí chega na Alemanha (risos).

Igor: Chega na Alemanha e chega na França, que é sempre uma pedra no sapato da gente. Uma pedra na chuteira. Também, também! E tem outra coisa que a gente chama de maldição da dimensionalidade. É uma coisa que eu falo muito em aula, que é muito legal. É o seguinte: às vezes você adiciona “Não! Já sei. Os mesmos dados pra treinar meu algoritmo. Porque eu tenho setenta mil colunas”. Imagina! Ele tem todos os dados do mundo.  Então ele vai ficar muito bom. O que vai acontecer? Quanto mais variáveis, quanto mais colunas você adiciona em um modelo para ele poder treinar… Eu tenho idade, sexo, cor do cabelo altura, se usa óculos ou não. Pra poder dar empréstimo é irrelevante. Se ele tem o joelho redondo ou quadrado, se o cara consegue dobrar a língua ou não, vai ser um monte de informação… O que acontece é que você vai adicionando variáveis, o seu modelo vai melhorando, mas chega um ponto que ele passa a piorar, então é o que chamamos de maldição da dimensionalidade. Tem técnicas, você adiciona uma punição para cada variável que se adiciona, enfim, a gente não vai entrar na parte técnica, mas isso é um problema também. Às vezes mais é pior, tem sempre um valor ideal ali

Kezia: É aquele clássico né, tipo, que se você soubesse tudo que acontece a cada instante, você conseguiria prever o futuro? Não né.

Igor: Não necessariamente, porque, na verdade, às vezes você está adicionando variáveis que não tem nenhuma relação com que você está tentando prever. Então o que você está criando é o seguinte: imagine que você tem 3 variáveis, sexo, idade e renda. E você tem 1000 pessoas, 1000 linhas de dados que vão ser usados para treinar. Então esses dados vão ser agrupados nesses 3 tipos de coisa. Você tem uma quantidade x de pessoas do sexo masculino, que tem renda x e que tem idade y. E você tem x pessoas do sexo feminino, com idade z etc. enfim, uma amostra boa para cada uma das combinações diferentes, porque você só tem 3 variáveis. Se você tem 100 variáveis, tem 1 determinada combinação que você vai ter só uma pessoa, tem determinada combinação que você não vai ter ninguém. Então no final seu algoritmo fica ruim por isso. Por exemplo, você tem uma pessoa só… O exemplo clássico que eu dou é o seguinte: você está tentando determinar se uma pessoa vai gostar ou não de uma palestra, quando ela vai avaliar, se ela vai avaliar positivamente ou não. Aí o que que você faz? Você pega a posição que ela sentou, a altura da pessoa, se ela é homem ou mulher, faixa etária dela. Aí você começa a adicionar cor da roupa, se usa óculos ou não, um monte de coisa aleatória. No final você vai ter, sei lá, uma pessoa só que sentou no meio, que estava de amarelo, que usa óculos, que é do sexo masculino, que é acima de 60 anos, ou seja, a opinião dela vai ser a única opinião que o algoritmo vai ter para treinar pra saber o que acontece. Então vai estar enviesado muito para aquilo ali. Quando você joga isso para o mundo real, ele não consegue prever outras pessoas que usam amarelo, que tenham aquela faixa etária, enfim, por que só teve um exemplo para treinar, então basicamente isso é a maldição da dimensionalidade, quando você adiciona muitas dimensões, você vai subdividindo, subdividindo os grupos e no caso você piora a eficiência, a acurácia do seu modelo.

Um outro problema que a gente tem também é o que a gente chama de target leaked, vazamento do alvo. O que quer dizer o seguinte. Quando você usa dados históricos para treinar o seu modelo – dados históricos eu falo dados que você já tenha do passado que você já sabe a resposta, que você usa para treinar o seu modelo para ele aprender como funcionam as regras. Você usa isso. Às vezes algumas daquelas informações você não pode usar. Por quê? Porque são informações que você não terá disponível quando você for prever um dado novo. Eu vou dar um exemplo: eu tenho um algoritmo que eu quero fazer para ele prever se eu vou conceder um empréstimo ou não para uma pessoa. Nos dados históricos eu tenho lá, por exemplo, se aquela pessoa conseguiu pagar o empréstimo em dia ou não. Essa informação é uma informação do futuro, porque quando eu estou concedendo um empréstimo para uma pessoa, eu não sei ainda se essa pessoa vai pagar o empréstimo ou não. Eu ainda não concedi o empréstimo. Então se eu usar essa informação, se ele vai pagar o empréstimo ou não, para treinar o meu algoritmo, eu tô pegando informação do futuro para treinar um algoritmo, entendeu? Porque ele só vai pagar ou não o empréstimo se for concedido. E outra coisa, só as pessoas que tiveram o empréstimo concedido vão ter a oportunidade de pagar ou não, então eu tenho outro problema, isso a gente chama de target leaked. Tá?

Kézia: Às vezes nem precisa ser uma informação assim do futuro, às vezes é uma questão de banco de dados mesmo, né? Os dados que você tem em treinamento têm, sei lá, o CPF, e os dados que você for colocar na vida real não têm isso. Então…

Igor: Exatamente, exatamente. E uma coisa que eu falei, por exemplo, é questão de ver se tem uma variável importante que precise e não tem, como eu falei aquele exemplo lá que eu não tinha dados de árvores e eu precisava, então, enfim… Aí você tem amostras muito enviesadas, como por exemplo você citou, Deep Learnings que não conseguiram reconhecer faces de pessoas negras ou asiáticas, porque as faces que foram dadas para ele treinar foram só de pessoas brancas, então ele é extremamente enviesado, só consegue reconhecer aquilo. Esses tipos são problemas muito comuns em Machine Learning. Enfim, a gente falou bastante né, mas a gente não vai falar de muita coisa aqui nesse episódio, por que vamos falar depois, né, Kézia?

Kézia: Isso, a gente não vai falar de tipo específico de algoritmo, técnica…. A gente até acabou falando alguma coisa, mas a gente não vai entrar nisso, a gente também não vai entrar em rede neural e deep learning, que a gente já falou no começo. E outra coisa que a gente vai falar é o processamento de linguagem natural, o NLP, mas se você achar isso interessante, todos os nossos episódios têm a análise de NLP, então as palavras que foram mais utilizadas, tem aquela nuvenzinha bonitinha de palavras, que às vezes as pessoas põe só para dar uma ilustrada e não significa nada, mas hoje em dia a gente tem essa análise. Então vocês conseguem analisar para todos os nossos episódios isso, tá bom? A gente não vai falar hoje.

Igor: Exatamente. Bom, então a gente tá chegando aqui não no final do episódio, mas no final do assunto principal. A gente ainda tem dois quadros mais pra frente, fique aqui com a gente. Espero que vocês tenham gostado, esse não é o único episódio que a gente vai ter sobre Machine Learning, como falamos no começo, mas é o primeiro de Machine Learning, quase uma introdução, depois a gente vai ter outros episódios mais específicos, mais aprofundados. Vai ter também Variâncias, que normalmente a gente está usando o Variância, eu particularmente estou usando o Variância para pegar mais pontos técnicos mesmo, e deixando os episódios principais para a gente fazer uma coisa mais abrangente, menos técnica. Então fique com a gente aqui, Intervalo de Confiança, que enfim, vai ter vários episódios que vão explicar isso. Um pouco mais técnico, às vezes um pouco mais aplicado no mundo real, enfim, tentando sempre balancear essas duas coisas.

Kezia: Não fiquem assustados, tá? Se o programa parece um pouquinho mais técnico, parece muito difícil, eu acho que nesse ponto é legal falar do meu exemplo, porque como eu sempre afirmo aí, eu sou historiadora, mas isso são coisas que eu estou estudando, sabe? Eu aprendi a estudar isso. A primeira vez que eu ouvi falar disso eu achava que era uma coisa do outro mundo. Falou pra mim matemática, função, eu falei “Ai meu Deus, já era”, mas quando aí quando você começa a pensar e ver os exemplos, as coisas, você vê que faz muito sentido, então eu espero que vocês tenham gostado bastante e tenha desmistificado o que que é Machine Learning, que às vezes parece mágica, né?

Igor: Pois é. E às vezes parece até porque tem um negócio que só para… antes de a gente partir para o nosso desvio padrão, uma coisa que acontece muito, que é muito debatida, é um assunto muito em voga, que a gente debate muito em Machine Learning é que muito algoritmo de Machine Learning é o que a gente chama de “Blackbox”. Não todos, mas tem muitos algoritmos, principalmente de rede neural que são Blackbox. Quer dizer que você não sabe como é que o algoritmo tomou determinada decisão, quais foram os processos internos para ele tomar determinada decisão. Então uma área de pesquisa muito grande hoje em dia é uma questão de interpretabilidade dos modelos, ou seja, você conseguir saber: “olha, eu neguei um empréstimo para essa pessoa e eu concedi para aquela por isso, por isso e por aquilo”. Para você ter certeza que não é porque a pessoa, por exemplo, mora num bairro pobre ou é de determinada etnia, etc. Mas são coisas que a gente vai falar em episódios futuros.

DESVIO PADRÃO

Igor: Enfim, chegou agora a hora do nosso querido quadro Desvio Padrão, que como o ouvinte já sabe é aquele quadro que a gente concede a cada episódio um prêmio  para uma pessoa, uma publicação, enfim, para alguém ou alguma empresa que utilizou dados de uma forma errada, distorcida, seja de forma intencional, ou não, e que houve um problema na divulgação, na interpretação, ou mesmo no processamento de dados, e que isso gerou algum tipo de confusão ou informação errada. E toda semana então a gente pega uma pessoa para receber esse “Prêmio”, entre aspas porque acho que ninguém quer receber esse prêmio né? Então vou pedir pra Kézia falar quem é o nosso vencedor deste programa.

Kézia: Então, o vencedor desta quinzena é uma matéria que eu vi sendo muito compartilhada aí pelos twitters da vida onde eu li, e é uma matéria que parece ser bem interessante no começo. A matéria diz: “Estudo da Langone School of Medicine, de Nova York”, em matéria publicada pela Época que é essa que todo mundo está compartilhando, “diz que quando você morre sua mente continua funcionando e você sabe que morreu”. Então tem uma parte que a gente vai dar um trechinho da matéria que está aqui: “Um estudo conduzido por Sam Parnia, diretor do departamento,”, né dessa escola da Langone School of Medicine “afirma que as pessoas sabem que estão mortas porque a sua consciência continua a funcionar mesmo depois que o corpo não mostra sinais de vida. A morte é definida como o ponto em que o coração não bate mais, e o fluxo de sangue para o cérebro é interrompido. “Tecnicamente, é como você obtém o horário da morte. Tudo é baseado no momento em que o coração para”.

E aí Igor, o que você achou? A gente descobriu a vida pós morte né?

Igor: Cara, eu achei esse negócio tão tão tão absurdo. Porque assim, ele pegou uma coisa que a gente já conhece há tantas décadas, que é a definição do que que é a morte. No caso da morte, a medicina já há muito, não é novidade assim, gente nossa, vamos botar isso no próximo programa do Conversa Inferencial que é uma notícia nova, isso é muito antigo. A morte é morte cerebral. Se o coração para de bater não é considerado morte. Muitas vezes o médico coloca ali de fato, como eles colocam na matéria, o médico vai colocar ali a hora da morte como a hora que o coração parou de bater, por que não vai haver possibilidade daquela pessoa vir a se recuperar e tal, mas a morte de fato, ela é considerada quando há morte cerebral. Até porque existem na história da medicina muitos casos de a pessoa ter por exemplo Catalepsia, né? Onde a pessoa aparentemente está morta, só que ela de fato não está morta. Inclusive tem vários relatos de pessoas que eram e devem ser até hoje enterradas vivas, né. E aí depois, por algum motivo, você abria o caixão…

Kézia: Sim, os vampiros.

Igor: <risos> Também, não, mas nesse caso a pessoa tipo morria, só que no caixão.

Kézia: Não, sim, mas é de onde veio a lenda dos vampiros, porque a pessoa depois ela saia do caixão, entendeu?

Igor: Pois é, e aí só que às vezes a pessoa não tinha essa chance, ou às vezes eles viam a pessoa estava com o caixão todo arranhado, porque a pessoa, imagina o desespero né? Então na época no século XVIII, XVII ou XVIII, o pessoal fez várias coisas para tentar evitar que isso acontecesse, porque virou tipo assim uma, um pavor as pessoas serem enterradas vivas. Inclusive velórios oravam mais tempo por causa disso. Só um detalhe inclusive, a palavra velório vem… é chamada velório porque não tinha energia elétrica né, e as pessoas então ficavam sentadas segurando velas né, ali em volta do corpo ali. Até velar o cadáver, velar o corpo vem disso né, porque a pessoa ficava segurando a vela, daí velório, tal. Mas enfim, só uma curiosidade.

Aí tinha  até, tinha uns negócios que você botava um cano do caixão até em cima com uns espelhos, um negócio super intrincado que alguém podia olhar, no caso era sempre um padre, uma coisa assim, e aí olhava lá dentro para ver se a pessoa estava se mexendo, alguma coisa assim. E se tivesse dava para jogar comida, água, sei lá. Tinha até um clássico que a pessoa botava… saia… amarrava uma cordinha no dedo ali do defunto e aquela cordinha até o final do lado de fora do túnel tinha um sininho, então se a pessoa acordasse ela podia mexer aquilo ali, o sino tocava… Ah, a pessoa tá viva, né. Daí que vem a expressão “salva pelo gongo”, a expressão vem daí, enfim. Então, a pessoa, ou seja, ela não ressuscitou, ela estava viva, mas porque acharam que ela morreu? Porque o coração parou. Então por causa disso eles tiveram que encontrar um outro parâmetro do que é a morte. Por isso que é definido como morte cerebral. Então quando eles falam que a pessoa morreu e a mente continua funcionando, se a mente continua funcionando, ela não morreu, simples. Se o coração parou e a mente continua funcionando, tudo bem que ela vai parar em pouco tempo depois, se você não usar nenhum tipo de equipamento para manter uma circulação artificial, uma coisa assim, ela vai, mas ela não morreu. Então é uma grande balela isso.

Kézia: Uma coisa me chamou a atenção nessa reportagem foi como ele conseguiu chegar nessa conclusão, porque se você ver os dados que ele utilizou, são todos relatos, relatos de pessoa com experiência de, sabe qual que é o nome? É experiência de quase morte né? Tipo, todos relatos.

Igor: Sim.

Kezia: Só que assim, o pior tipo de evidência – tipo eu só lembro do Andrei do Mundofreak – o pior tipo de evidência são relatos, pessoas relatando algo. Isso é mais, tipo… que não é confiável do universo, entendeu? Então se for ver, todo esse estudo foi baseado em relato, ele tipo ah… pegou pessoas que tiveram experiência de quase morte e as pessoas falaram pra ele que ainda estavam ouvindo as conversas e tal, tipo depois que elas foram declaradas mortas. Isso não prova nada, entendeu? Tipo não é uma coisa que ele viu a questão das ondas cerebrais, ou viu que a pessoa ainda se mexia, sabe alguma coisa assim? Não, as pessoas disseram para ele e essa é a base do estudo.

Igor: Sim, não, e, além disso, aí eles falam> “Ah, mas a gente confirmou com enfermeiro”, mas assim, ele perguntou para o enfermeiro: “É verdade que aconteceu isso, isso e isso?”, ou seja, já induziu o cara a falar.

Kézia: Sim. Relato.

Igor: Ele não perguntou: “O que aconteceu?” para o enfermeiro e para o médico que estava na sala e o médico vai falar “Ah, eu falei tal coisa, fui para direita, fui para a esquerda.” Não, ele perguntou ” É verdade que você fez tal, tal? O cara… Isso aí pode ter sido lá 2 , 3 dias depois, até mais tempo. O cara atendeu, sei lá, dezenas de pacientes depois. A memória dele já está confusa, ja está… quanto mais você lembra uma coisa, mais a sua memória está afetada, e menos confiável ela é. Enfim, a gente já falou disso no episódio consciência artificial. Então, enfim, não faz muito sentido essa pesquisa. Enfim, foi divulgado pela revista época, outras publicações, o Independence, publicação britânica. E enfim, por causa disso, então vai para esse estudo absurdamente furado da Langone School of Medicine de Nova Iorque, enfim, muito tosco, é o pior tipo de ciência ou pseudociência que possa ser feito. Enfim, não ajuda em nada. Nem em quem acredita em espiritualismo, nem a ciência. Até porque eu sempre falo: a religião não precisa da ciência para se validar, enfim são coisas independentes, cada uma pode viver… cada um no seu quadrado de forma harmônica e beleza, não tem problema, né? Então, enfim…

Kézia: E o que mais me decepciona não foi nem o estudo, cara, foi a reportagem. A reportagem não diz nada, sério. Você vai ler é tipo 3 parágrafos.

Igor: Pois é, mas enfim é isso. Então parabéns pelo prêmio de vocês, podem entrar em contato se quiserem receber de alguma forma né.

<música>

ESPAÇO AMOSTRAL

Igor: E agora chegamos ao nosso quadro final, Espaço Amostral, onde cada um de nós vai trazer alguma indicação para vocês. E eu vou começar perguntando pra Kézia. O que você indica aí para os nossos ouvintes?

Kézia: Eu vou indicar na verdade um filme que tem a ver com nosso desvio padrão, que a gente acabou de dizer. O filme tem uma premissa bem parecida com o estudo, mas, de novo, ele é uma obra de ficção. O nome é “The Discovery”, ele está na Netflix. E a história conta que um cientista conseguiu provar a existência da vida após a morte, provar mesmo, não é só relatos. E depois que ele conseguiu isso teve uma onda de suicídios, um monte de gente se matou e tal, porque foi provada a vida após a morte. E aí o filme começa a partir disso, não é spoiler, está na sinopse, você pode ver. E aí conta a história dele como cientista, depois de um tempo que ele provou isso, de tudo que a descoberta dele causou, por isso o filme se chama “The Discovery”, “A Descoberta” e como isso se desenrola. Ele formou um lugar comunitário, que várias pessoas moram com ele nesse mesmo espaço, e eles continuam os estudos e tal. É muito legal, porque é realmente o que aconteceria com a gente, com a vida humana, se fosse provado que existe vida após a morte, sabe? Como a gente reagiria a isso. Então é um filme muito legal, ele parte dessa premissa de ficção científica, mas não é tipo “navinha, tiro”, essas coisas, então ele é bem legal, acho que ele traz uma reflexão bem legal.

Igor: É, eu já vi esse filme, ele é bem legal mesmo, bacana.

Bom, e a minha indicação é um livro, e se ele ainda não tiver versão em português eu peço já desculpas, eu não sei. Infelizmente “Ah, eu fico indicando podcast em inglês, muito livro em inglês” como eu moro nos EUA eu tenho mais acesso a esse tipo de material, mas eu sempre passo o nome do autor, aí o ouvinte pode ficar ligado se não saiu uma versão em português. Senão esse eu imagino que está tendo uma repercussão até bacana, não deve demorar para sair em português.

É um livro muito pequenininho e muito curtinho, você lê ele em menos de uma hora, de verdade. Ele é chamado “30-Second Universe”. Para quem me conhece melhor, sabe que eu sou desde criança, eu sou absolutamente apaixonado por astronomia, gosto muito de astrofísica, enfim leio, consumo muito esse tipo de conteúdo e esse livro é muito bacana. É que… ele é bem livro de divulgação científica, ele é bem simples, é para o público leigo. Ele é basicamente… a ideia é o seguinte, ele tem 50 ideias, teorias, princípios, perguntas, enfim, 50 tópicos relacionados ao Universo. Em cada um desses tópicos ele tenta resumir em 30 segundos. Vai sei lá, por exemplo, deixa eu só lembrar um aqui, hm… da lei de Kepler, por exemplo da movimentação orbital né. Ou Newton ou sei lá de um buraco negro.

Kézia: Ele é tipo “se vira nos 30” da astronomia, é isso?

Igor: Boa comparação <risos> e aí ele basicamente é isso né. E os autores, são 3 autores.

Kézia: Quem sabe faz ao vivo.

Igor: Pois é né… Ô Lôco… é o Charles Liu, a Karen Masters e o Sevil Salur, são 3 autores. Então se você procurar pelo nome você pode ver se tem esse livro em português. “30-Second Universe”, o universo em 30 segundos, muito bacana, diagramação dele é muito linda, um livro muito caprichado, muito bem feito, muito bacaninha, então fica essa minha indicação de livro. O pessoal fala “ah não, o Igor sempre rouba e indica 2…” vou indicar só 1 hoje.

Mas é isso então gente, então ficamos agora aqui com nossos encerramentos. Você quer deixar algum recado final, um jabá etc. Kézia?

Kézia: Não queria jabá, mas um agradecimento mesmo, eu sei que esse assunto é muito mais técnico, mais pesado e só estávamos eu e o Igor, que como ele falou a Patrícia ia gravar com a gente, mas tivemos imprevistos  fora da nosso alcance. Então eu espero realmente que tenha sido um programa legal, que tenha tido um ritmo legal. Como foi só nós dois, eu peço desculpa se ficou um pouquinho mais fora de ritmo esse episódio, mas eu adorei fazer, eu gostei bastante.

Igor: Eu acho que foi bacana, uma pena de fato que a Patrícia não pôde participar, mas enfim, são imprevistos, queda de eletricidade, ela está sem energia até agora, infelizmente, mas ela estará aqui nos próximos episódios em breve de volta, enfim. Existe um fã clube da, cada um de vocês tem, a Nicoli tem um fã clube que sempre comenta e tal, a Patrícia também. Em breve estão de volta. E enfim, o meu recadinho sempre é no meu site o igoralcantara.com.br, você pode ficar sabendo do meu curso, eu tenho curso na Udemy Online, de fundamentos de Ciência de Dados. Estou preparando – uma questão de tempo, está muito difícil o tempo – mas estou preparando aos poucos o meu próximo curso que será de Machine Learning especificamente, a segunda parte desse primeiro curso. No meu site você vê também minha participação em outros podcasts, enfim, tá tudo lá. Inclusive os podcasts, tem meu outro podcast que está com hiato, mas por problema de cirrose, de quase coma alcoólico a gente não concluiu, que eu e minha esposa gravamos bêbados, completamente bêbados, que a gente fala besteira e coisas absolutamente úteis e importantes para o Universo de um esporte maravilhoso chamado Lacrosse. Não sei Lacrosse, não gosto de Lacrosse, escuta só pra ver a gente falando coisas aleatórias.

Kezia: Pra quem não sabe, gente, a esposa do Igor é a nossa querida Mariana, a voz maravilhosa que sempre encerra nosso podcast e que agora tá dando nossos recadinhos também, então vá lá para ouvir essa voz bêbada <risos>

Igor: Pois é, você vai ouvir a voz da Mariana muito bêbada. Enfim é isso então. Espero que vocês tenham gostado desse episódio, que estava sendo muito pedido, então espero que a gente tenha conseguido cumprir as expectativas, muito difícil quando você tem só o recurso do áudio, sem um recurso visual, mas a gente enfim fez com muito carinho pra vocês. É isso, visitem o post, leiam nossos textos e um abraço até a próxima.

Kezia: Tchau gente.



Author: Igor Alcantara

Cientista de Dados, professor e podcaster. Com mais de uma década de experiência trabalhando com dados, atualmente reside em Boston - MA com sua família e uma gata.