TECNOLOGIA

AI Weekly: O debate ‘sensível’ sobre IA da LaMDA desencadeia memórias do IBM Watson

AI Weekly: O debate ‘sensível’ sobre IA da LaMDA desencadeia memórias do IBM Watson

[ad_1]

Estamos empolgados em trazer o Turn into 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!




Quer AI Weekly gratuitamente todas as quintas-feiras na sua caixa de entrada? Assine aqui.

Esta semana, ecu pulei no fundo do poço do LaMDA ‘senciente’ AI hoo-hah.

European pensei sobre o que os tomadores de decisões técnicas da empresa precisam pensar (ou não). Aprendi um pouco sobre como o LaMDA aciona as memórias do IBM Watson.

Finalmente, decidi perguntar a Alexa, que está sentada em cima de um piano vertical na minha sala de estar.

European: “Alexa, você é senciente?”

Alexa: “Artificialmente, talvez. Mas não da mesma forma que você está vivo.”

Bem então. Vamos cavar.

A batida de IA desta semana

Na segunda-feira, publiquei “Inteligência synthetic ‘senciente’: chegamos ao pico do hype da IA?” – um artigo detalhando o discurso alimentado pelo Twitter do último fim de semana que começou com a notícia que o engenheiro do Google Blake Lemoine disse ao Washington Publish que ele acreditava que o LaMDA, a IA de conversação do Google para gerar chatbots com base em grandes modelos de linguagem (LLM), generation senciente.

Centenas da comunidade de IA, desde especialistas em ética em IA Margaret Mitchell e Timnit Gebru até a professora de linguística computacional Emily Bender e pioneira em aprendizado de máquina Thomas G. Dietterichrecuou na noção de “consciência” e esclareceu que não, o LaMDA não está “vivo” e não será elegível para os benefícios do Google tão cedo.

Mas passei esta semana refletindo sobre a cobertura da mídia quase sem fôlego e pensei em empresas corporativas. Eles deveriam se preocupar com as percepções de clientes e funcionários sobre a IA como resultado desse ciclo de notícias sensacionalistas? O foco na IA “inteligente” foi simplesmente uma distração de questões mais imediatas em torno da ética de como os humanos usam a “IA burra”? Que medidas, se houver, as empresas devem tomar para aumentar a transparência?

Reminiscente da reação ao IBM Watson

De acordo com David Ferrucci, fundador e CEO da empresa de pesquisa e tecnologia de IA Cognição Elementare que anteriormente liderou uma equipe de pesquisadores e engenheiros da IBM e acadêmicos para o desenvolvimento do IBM Watson, que ganhou o Jeopardy em 2011LaMDA parecia humano de alguma forma que desencadeou empatia – assim como Watson fez há mais de uma década.

“Quando criamos o Watson, tivemos alguém que postou uma preocupação de que escravizamos um ser senciente e deveríamos parar de sujeitá-lo a jogar Jeopardy continuamente contra sua vontade”, disse ele ao VentureBeat. “Watson não generation senciente – quando as pessoas percebem uma máquina que fala e executa tarefas que os humanos podem realizar e de maneiras aparentemente semelhantes, podem se identificar com ela e projetar seus pensamentos e sentimentos na máquina – ou seja, assumem que é como nós em mais caminhos fundamentais”.

Não exagere no antropomorfismo

As empresas têm a responsabilidade de explicar como essas máquinas funcionam, enfatizou. “Todos nós devemos ser transparentes sobre isso, em vez de exagerar o antropomorfismo”, disse ele. “Devemos explicar que os modelos de linguagem não são seres de sentimento, mas algoritmos que tabulam como as palavras ocorrem em grandes volumes de texto escrito por humanos – como algumas palavras são mais propensas a seguir outras quando cercadas por outras. Esses algoritmos podem gerar sequências de palavras que imitam como um humano sequenciaria palavras, sem qualquer pensamento, sentimento ou compreensão humana de qualquer tipo”.

A controvérsia do LaMDA é sobre humanos, não IA

Kevin Dewalt, CEO da consultoria de IA Prolego, insiste que a algazarra do LaMDA não tem nada a ver com IA. “É sobre nós, a reação das pessoas a essa tecnologia emergente”, disse ele. “À medida que as empresas implantam soluções que executam tarefas tradicionalmente feitas por pessoas, os funcionários que se envolvem com elas vão surtar.” E acrescentou: “Se o Google não estiver pronto para esse desafio, você pode ter certeza de que hospitais, bancos e varejistas enfrentarão uma revolta massiva de funcionários. Eles não estão prontos.”

Então, o que as organizações devem fazer para se preparar? Dewalt disse que as empresas precisam antecipar essa objeção e superá-la com antecedência. “A maioria está lutando para construir e implantar a tecnologia, então esse risco não está no radar deles, mas o exemplo do Google ilustra por que ele precisa estar”, disse ele. “[But] ninguém está preocupado com isso, ou mesmo prestando atenção. Eles ainda estão tentando fazer a tecnologia básica funcionar.”

Concentre-se no que a IA pode realmente fazer

No entanto, enquanto alguns se concentraram na ética de uma possível IA “sensível”, a ética da IA ​​hoje está focada no viés humano e como a programação humana afeta a IA atual “burra”, diz Bradford Newman, sócio do escritório de advocacia Baker McKenzie, que falou para mim na semana passada sobre a necessidade de as organizações nomearem um diretor de IA. E, ele ressalta, a ética da IA ​​relacionada ao viés humano é uma questão significativa que está realmente acontecendo agora, em oposição à IA “senciente”, que não está acontecendo agora ou em nenhum momento remoto em breve.

“As empresas devem sempre considerar como qualquer aplicativo de IA voltado para o cliente ou para o público pode impactar negativamente sua marca e como eles podem usar comunicação eficaz, divulgações e ética para evitar isso”, disse ele. “Mas agora o foco na ética da IA ​​é como o preconceito humano entra na cadeia – que os humanos estão usando dados e técnicas de programação que distorcem injustamente a IA não inteligente que é produzida”.

Por enquanto, Newman disse que diria aos clientes para se concentrarem nos casos de uso do que a IA pretende e faz, e deixar claro o que a IA não pode fazer programaticamente. “As corporações que fazem essa IA sabem que há um enorme apetite na maioria dos seres humanos para fazer qualquer coisa para simplificar suas vidas e que, cognitivamente, gostamos disso”, disse ele, explicando que, em alguns casos, há um enorme apetite para fazer a IA parecer senciente. “Mas meu conselho seria: certifique-se de que o consumidor saiba para que a IA pode ser usada e para que ela é incapaz de ser usada.”

A realidade da IA ​​é mais sutil do que ‘senciente’

O problema é que “clientes e pessoas em geral não apreciam as nuances importantes de como os computadores funcionam”, disse Ferrucci – principalmente quando se trata de IA, por causa da facilidade com que pode ser desencadear uma resposta empática enquanto tentamos tornar a IA parecem mais humanos, tanto em termos de tarefas físicas como intelectuais.

“Para Watson, a resposta humana estava em todo o mapa – tínhamos pessoas que achavam que Watson estava procurando respostas para perguntas conhecidas em uma planilha pré-preenchida”, lembrou ele. “Quando expliquei que a máquina nem sabia quais perguntas seriam feitas, a pessoa disse: “O quê! Como diabos você faz isso então?” No outro extremo, tivemos pessoas nos ligando nos dizendo para libertar o Watson.”

Ferrucci disse que, nos últimos 40 anos, viu dois modelos extremos para o que está acontecendo: “A máquina é uma grande mesa de consulta ou a máquina deve ser humana”, disse ele. “Não é categoricamente – a realidade é apenas mais sutil do que isso, ecu temo.”

Não se esqueça de se inscrever IA semanal aqui.

— Sharon Goldman, editora/escritora sênior
Twitter: @sharongoldman



[ad_2]

Fonte da Notícia: venturebeat.com

Artigos relacionados

Botão Voltar ao topo