O que a história da IA nos diz sobre seu futuro
[ad_1]
Mas o que os computadores eram ruins, tradicionalmente, generation a estratégia – a capacidade de refletir sobre a forma de um jogo com muitos, muitos movimentos no futuro. É aí que os humanos ainda tinham vantagem.
Ou assim pensou Kasparov, até que o movimento de Deep Blue no jogo 2 o abalou. Parecia tão sofisticado que Kasparov começou a se preocupar: talvez a máquina fosse muito melhor do que ele pensava! Convencido de que não tinha como vencer, ele renunciou no segundo jogo.
Mas ele não deveria. Deep Blue, ao que parece, não generation tão bom assim. Kasparov não conseguiu identificar uma jogada que teria deixado o jogo terminar em empate. Ele estava se desesperando: preocupado que a máquina pudesse ser muito mais poderosa do que realmente generation, ele começou a ver raciocínio humano onde não existia.
Afastado de seu ritmo, Kasparov continuou jogando cada vez pior. Ele se empolgou uma e outra vez. No início do sexto jogo, o vencedor leva tudo, ele fez uma jogada tão ruim que os observadores de xadrez gritaram em choque. “European não estava com vontade de jogar”, disse ele mais tarde em uma entrevista coletiva.
A IBM se beneficiou de seu moonshot. No frenesi da imprensa que se seguiu ao sucesso do Deep Blue, o valor de mercado da empresa subiu US$ 11,4 bilhões em uma única semana. Ainda mais significativo, porém, foi que o triunfo da IBM parecia um degelo no longo inverno da IA. Se o xadrez pudesse ser conquistado, o que viria a seguir? A mente do público cambaleou.
“Isso”, diz Campbell, “foi o que fez as pessoas prestarem atenção”.
A verdade é que não foi surpresa que um computador tenha vencido Kasparov. A maioria das pessoas que estava prestando atenção à IA – e ao xadrez – esperava que isso acontecesse eventualmente.
O xadrez pode parecer o ápice do pensamento humano, mas não é. Na verdade, é uma tarefa psychological bastante acessível à computação de força bruta: as regras são claras, não há informações ocultas e um computador nem precisa acompanhar o que aconteceu nos movimentos anteriores. Ele apenas avalia a posição das peças agora.
“Existem muito poucos problemas por aí onde, como no xadrez, você tem todas as informações necessárias para tomar a decisão certa.”
Todos sabiam que, uma vez que os computadores fossem rápidos o suficiente, eles sobrecarregariam um humano. Generation apenas uma questão de quando. Em meados dos anos 90, “de certa forma, a escrita já estava na parede”, diz Demis Hassabis, chefe da empresa de IA DeepMind, parte da Alphabet.
A vitória do Deep Blue foi o momento que mostrou o quão limitados os sistemas codificados à mão podem ser. A IBM gastou anos e milhões de dólares desenvolvendo um computador para jogar xadrez. Mas não podia fazer mais nada.
“Isso não levou aos avanços que permitiram a [Deep Blue] A IA terá um enorme impacto no mundo”, diz Campbell. Eles realmente não descobriram nenhum princípio de inteligência, porque o mundo actual não se parece com o xadrez. “Existem muito poucos problemas por aí onde, como no xadrez, você tem todas as informações necessárias para tomar a decisão certa”, acrescenta Campbell. “Na maioria das vezes, há incógnitas. Há aleatoriedade.”
Mas enquanto o Deep Blue estava limpando o chão com Kasparov, um punhado de novatos briguentos estava mexendo com uma forma radicalmente mais promissora de IA: a rede neural.
Com as redes neurais, a ideia não generation, como nos sistemas especialistas, escrever regras pacientemente para cada decisão que uma IA fará. Em vez disso, o treinamento e o reforço fortalecem as conexões internas em uma emulação grosseira (como diz a teoria) de como o cérebro humano aprende.
FOTO AP / ADAM NADEL
A ideia existia desde os anos 50. Mas treinar uma rede neural útil e grande exigia computadores extremamente rápidos, toneladas de memória e muitos dados. Nada disso estava prontamente disponível na época. Mesmo nos anos 90, as redes neurais eram consideradas uma perda de pace.
“Naquela época, a maioria das pessoas em IA achava que as redes neurais eram apenas lixo”, diz Geoff Hinton, professor emérito de ciência da computação da Universidade de Toronto e pioneiro no campo. “Fui chamado de ‘verdadeiro crente’” – não um elogio.
Mas na década de 2000, a indústria de computadores estava evoluindo para tornar as redes neurais viáveis. A ânsia dos jogadores de videogame por gráficos cada vez melhores criou uma enorme indústria em unidades de processamento gráfico ultrarrápidas, que se revelaram perfeitamente adequadas para matemática de rede neural. Enquanto isso, a web explodia, produzindo uma torrente de imagens e textos que podiam ser usados para treinar os sistemas.
No início de 2010, esses saltos técnicos permitiram que Hinton e sua equipe de verdadeiros crentes levassem as redes neurais a novos patamares. Eles agora poderiam criar redes com muitas camadas de neurônios (que é o que significa “profundo” em “aprendizagem profunda”). Em 2012, sua equipe venceu com folga a competição anual Imagenet, onde IAs competem para reconhecer elementos em imagens. Isso surpreendeu o mundo da ciência da computação: as máquinas de autoaprendizagem finalmente se tornaram viáveis.
Dez anos após a revolução do aprendizado profundo, as redes neurais e suas habilidades de reconhecimento de padrões colonizaram todos os cantos da vida cotidiana. Eles ajudam o Gmail a completar automaticamente suas frases, ajudam os bancos a detectar fraudes, permitem que aplicativos de fotos reconheçam rostos automaticamente e, no caso do GPT-3 da OpenAI e do Gopher da DeepMind, escrevem ensaios longos e que parecem humanos e resumem textos. Estão até mudando a forma como a ciência é feita; em 2020, a DeepMind lançou o AlphaFold2, uma IA que pode prever como as proteínas se dobrarão – uma habilidade sobre-humana que pode ajudar a orientar os pesquisadores a desenvolver novos medicamentos e tratamentos.
Enquanto isso, o Deep Blue desapareceu, sem deixar invenções úteis em seu rastro. Acontece que jogar xadrez não generation uma habilidade de computador necessária na vida cotidiana. “O que o Deep Blue mostrou no ultimate foram as deficiências de tentar fazer tudo à mão”, diz o fundador do DeepMind, Hassabis.
A IBM tentou remediar a situação com o Watson, outro sistema especializado, este projetado para resolver um problema mais prático: fazer com que uma máquina respondesse a perguntas. Ele usou a análise estatística de grandes quantidades de texto para alcançar a compreensão da linguagem que generation, para a época, de ponta. Generation mais do que um simples sistema se-então. Mas Watson enfrentou um momento de azar: foi eclipsado apenas alguns anos depois pela revolução no aprendizado profundo, que trouxe uma geração de modelos de processamento de linguagem muito mais sutis do que as técnicas estatísticas de Watson.
O aprendizado profundo atropelou a IA da velha escola precisamente porque “o reconhecimento de padrões é incrivelmente poderoso”, diz Daphne Koller, ex-professora de Stanford que fundou e administra a Insitro, que america redes neurais e outras formas de aprendizado de máquina para investigar novos tratamentos com medicamentos. A flexibilidade das redes neurais – a grande variedade de maneiras pelas quais o reconhecimento de padrões pode ser usado – é a razão pela qual ainda não houve outro inverno de IA. “O aprendizado de máquina realmente forneceu valor”, diz ela, algo que as “ondas anteriores de exuberância” da IA nunca fizeram.
As fortunas invertidas do Deep Blue e das redes neurais mostram como fomos ruins, por tanto pace, em julgar o que é difícil – e o que é valioso – na IA.
Durante décadas, as pessoas assumiram que dominar o xadrez seria importante porque, bem, o xadrez é difícil para os humanos jogarem em alto nível. Mas o xadrez acabou sendo bastante fácil para os computadores dominarem, porque é muito lógico.
O que generation muito mais difícil para os computadores aprenderem generation o trabalho psychological informal e inconsciente que os humanos fazem – como conduzir uma conversa animada, pilotar um carro no trânsito ou ler o estado emocional de um amigo. Fazemos essas coisas com tanta facilidade que raramente percebemos como elas são complicadas e quanto julgamento confuso e em escala de cinza elas exigem. A grande utilidade do aprendizado profundo vem da capacidade de capturar pequenos pedaços dessa inteligência humana sutil e não anunciada.
Ainda assim, não há vitória ultimate na inteligência synthetic. O aprendizado profundo pode estar em alta agora, mas também está acumulando críticas afiadas.
“Durante muito pace, houve esse entusiasmo tecno-chauvinista de que tudo bem, a IA resolverá todos os problemas!” diz Meredith Broussard, programadora que se tornou professora de jornalismo na Universidade de Nova York e autora de Falta de inteligência synthetic. Mas, como ela e outros críticos apontaram, os sistemas de aprendizado profundo geralmente são treinados em dados tendenciosos – e absorvem esses preconceitos. Os cientistas da computação Pleasure Buolamwini e Timnit Gebru descobriram que três sistemas de IA visuais disponíveis comercialmente eram terríveis para analisar os rostos de mulheres de pele mais escura. A Amazon treinou uma IA para examinar currículos, apenas para descobrir que ela rebaixava as mulheres.
Embora os cientistas da computação e muitos engenheiros de IA estejam cientes desses problemas de viés, eles nem sempre têm certeza de como lidar com eles. Além disso, as redes neurais também são “caixas pretas gigantescas”, diz Daniela Rus, veterana de IA que atualmente dirige o Laboratório de Ciência da Computação e Inteligência Synthetic do MIT. Uma vez que uma rede neural é treinada, sua mecânica não é facilmente compreendida nem mesmo por seu criador. Não está claro como ele chega às suas conclusões – ou como ele irá falhar.
“Durante muito pace, houve esse entusiasmo tecno-chauvinista de que Ok, AI vai resolver todos os problemas!”
Pode não ser um problema, acredita Rus, confiar em uma caixa preta para uma tarefa que não é “crítica à segurança”. Mas e um trabalho de alto risco, como direção autônoma? “É realmente notável que pudéssemos depositar tanta confiança e fé neles”, diz ela.
Foi aí que o Deep Blue teve uma vantagem. O estilo da velha escola de regras artesanais pode ter sido frágil, mas generation compreensível. A máquina generation complexa, mas não generation um mistério.
Ironicamente, esse velho estilo de programação pode encenar uma espécie de retorno à medida que engenheiros e cientistas da computação lidam com os limites da correspondência de padrões.
Geradores de linguagem, como o GPT-3 da OpenAI ou o Gopher da DeepMind, podem pegar algumas frases que você escreveu e continuar escrevendo páginas e páginas de prosa plausível. Mas, apesar de algumas imitações impressionantes, Gopher “ainda não entende o que está dizendo”, diz Hassabis. “Não no sentido verdadeiro.”
Da mesma forma, a IA visible pode cometer erros terríveis quando encontra um caso extremo. Carros autônomos bateram em caminhões de bombeiros estacionados em rodovias, porque em todas as milhões de horas de vídeo em que foram treinados, eles nunca encontraram essa situação. As redes neurais têm, à sua maneira, uma versão do problema da “fragilidade”.
.
[ad_2]
Fonte da Notícia




