TECNOLOGIA

LaMDA e a Armadilha de Inteligência Synthetic Sentient

LaMDA e a Armadilha de Inteligência Synthetic Sentient

[ad_1]

Agora chefe da Dispensed AI Analysis, sem fins lucrativos, Gebru espera que daqui para frente as pessoas se concentrem em bem-estar humano, não direitos de robôs. Outros especialistas em ética da IA ​​disseram que não vão mais discutir IA consciente ou superinteligente de forma alguma.



“Existe uma lacuna muito grande entre a narrativa atual da IA ​​e o que ela pode realmente fazer”, diz Giada Pistilli, especialista em ética da Hugging Face, uma startup focada em modelos de linguagem. “Essa narrativa provoca medo, espanto e excitação simultaneamente, mas é baseada principalmente em mentiras para vender produtos e aproveitar o hype.”

A consequência da especulação sobre a IA senciente, diz ela, é uma maior disposição de fazer afirmações baseadas em impressões subjetivas em vez de rigor e provas científicas. Isso distrai de “incontáveis ​​questões éticas e de justiça social” que os sistemas de IA apresentam. Embora todo pesquisador tenha a liberdade de pesquisar o que quiser, ela diz: “Só temo que focar nesse assunto nos faça esquecer o que está acontecendo enquanto olhamos para a lua”.

O que Lemoire experimentou é um exemplo do que o autor e futurista David Brin chamou de “crise de empatia robótica”. Em uma conferência de IA em São Francisco em 2017, Brin previu que, em três a cinco anos, as pessoas alegariam que os sistemas de IA eram sencientes e exigiriam que tivessem direitos. Naquela época, ele achava que esses apelos viriam de um agente digital que tomava a aparência de uma mulher ou criança para maximizar a resposta empática humana, não “algum cara do Google”, diz ele.

O incidente do LaMDA faz parte de um período de transição, diz Brin, onde “ficaremos cada vez mais confusos sobre a fronteira entre realidade e ficção científica”.

Brin baseou sua previsão de 2017 em avanços nos modelos de linguagem. Ele espera que a tendência leve a golpes a partir daqui. Se as pessoas fossem otárias de um chatbot tão simples quanto o ELIZA décadas atrás, diz ele, quão difícil seria persuadir milhões de que uma pessoa imitada merece proteção ou dinheiro?

“Há muito óleo de cobra por aí e misturado com todo o hype são avanços genuínos”, diz Brin. “Analisar nosso caminho através desse ensopado é um dos desafios que enfrentamos.”

E por mais empático que o LaMDA pareça, as pessoas que ficam impressionadas com grandes modelos de linguagem deveriam considerar o caso do esfaqueamento do cheeseburger, diz Yejin Choi, cientista da computação da Universidade de Washington. Um noticiário native nos Estados Unidos envolveu um adolescente em Toledo, Ohio, esfaqueando sua mãe no braço em uma disputa por um cheeseburger. Mas a manchete “esfaqueamento de cheeseburger” é vaga. Saber o que ocorreu requer algum bom senso. Tentativas de obter o modelo GPT-3 da OpenAI para gerar texto usando “Últimas notícias: esfaqueamento de cheeseburger” produz palavras sobre um homem sendo esfaqueado com um cheeseburger em uma briga por ketchup, e um homem sendo preso após esfaquear um cheeseburger.

Os modelos de linguagem às vezes cometem erros porque decifrar a linguagem humana pode exigir várias formas de compreensão do senso comum. Para documentar o que os grandes modelos de linguagem são capazes de fazer e onde podem falhar, no mês passado mais de 400 pesquisadores de 130 instituições contribuíram para uma coleção de mais de 200 tarefas conhecidas como BIG-Bench, ou Past the Imitation Recreation. O BIG-Bench inclui alguns tipos tradicionais de testes de modelos de linguagem, como compreensão de leitura, mas também raciocínio lógico e senso comum.

Pesquisadores do Allen Institute for AI’s MOSAICO projeto, que documenta as habilidades de raciocínio de senso comum dos modelos de IA, contribuiu uma tarefa chamada Social-IQa. Elas pediu a modelos de linguagem – não incluindo LaMDA – para responder a perguntas que exigem inteligência social, como “Jordan queria contar um segredo a Tracy, então Jordan se inclinou para Tracy. Por que Jordan fez isso?” A equipe descobriu que grandes modelos de linguagem alcançavam desempenho de 20 a 30 por cento menos preciso do que as pessoas.

.

[ad_2]

Fonte da Notícia: www.stressed.com

Artigos relacionados

Botão Voltar ao topo