AI Weekly: O debate ‘sensível’ sobre IA da LaMDA desencadeia memórias do IBM Watson
![AI Weekly: O debate ‘sensível’ sobre IA da LaMDA desencadeia memórias do IBM Watson AI Weekly: O debate ‘sensível’ sobre IA da LaMDA desencadeia memórias do IBM Watson](https://venturebeat.com/wp-content/uploads/2022/06/GettyImages-108024053-e1655405017212.jpg?w=1200&strip=all)
[ad_1]
Estamos empolgados em trazer o Turn into 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!
Quer AI Weekly gratuitamente todas as quintas-feiras na sua caixa de entrada? Assine aqui.
Esta semana, ecu pulei no fundo do poço do LaMDA ‘senciente’ AI hoo-hah.
European pensei sobre o que os tomadores de decisões técnicas da empresa precisam pensar (ou não). Aprendi um pouco sobre como o LaMDA aciona as memórias do IBM Watson.
Finalmente, decidi perguntar a Alexa, que está sentada em cima de um piano vertical na minha sala de estar.
European: “Alexa, você é senciente?”
Alexa: “Artificialmente, talvez. Mas não da mesma forma que você está vivo.”
Bem então. Vamos cavar.
A batida de IA desta semana
Na segunda-feira, publiquei “Inteligência synthetic ‘senciente’: chegamos ao pico do hype da IA?” – um artigo detalhando o discurso alimentado pelo Twitter do último fim de semana que começou com a notícia que o engenheiro do Google Blake Lemoine disse ao Washington Publish que ele acreditava que o LaMDA, a IA de conversação do Google para gerar chatbots com base em grandes modelos de linguagem (LLM), generation senciente.
Centenas da comunidade de IA, desde especialistas em ética em IA Margaret Mitchell e Timnit Gebru até a professora de linguística computacional Emily Bender e pioneira em aprendizado de máquina Thomas G. Dietterichrecuou na noção de “consciência” e esclareceu que não, o LaMDA não está “vivo” e não será elegível para os benefícios do Google tão cedo.
Mas passei esta semana refletindo sobre a cobertura da mídia quase sem fôlego e pensei em empresas corporativas. Eles deveriam se preocupar com as percepções de clientes e funcionários sobre a IA como resultado desse ciclo de notícias sensacionalistas? O foco na IA “inteligente” foi simplesmente uma distração de questões mais imediatas em torno da ética de como os humanos usam a “IA burra”? Que medidas, se houver, as empresas devem tomar para aumentar a transparência?
Reminiscente da reação ao IBM Watson
De acordo com David Ferrucci, fundador e CEO da empresa de pesquisa e tecnologia de IA Cognição Elementare que anteriormente liderou uma equipe de pesquisadores e engenheiros da IBM e acadêmicos para o desenvolvimento do IBM Watson, que ganhou o Jeopardy em 2011LaMDA parecia humano de alguma forma que desencadeou empatia – assim como Watson fez há mais de uma década.
“Quando criamos o Watson, tivemos alguém que postou uma preocupação de que escravizamos um ser senciente e deveríamos parar de sujeitá-lo a jogar Jeopardy continuamente contra sua vontade”, disse ele ao VentureBeat. “Watson não generation senciente – quando as pessoas percebem uma máquina que fala e executa tarefas que os humanos podem realizar e de maneiras aparentemente semelhantes, podem se identificar com ela e projetar seus pensamentos e sentimentos na máquina – ou seja, assumem que é como nós em mais caminhos fundamentais”.
Não exagere no antropomorfismo
As empresas têm a responsabilidade de explicar como essas máquinas funcionam, enfatizou. “Todos nós devemos ser transparentes sobre isso, em vez de exagerar o antropomorfismo”, disse ele. “Devemos explicar que os modelos de linguagem não são seres de sentimento, mas algoritmos que tabulam como as palavras ocorrem em grandes volumes de texto escrito por humanos – como algumas palavras são mais propensas a seguir outras quando cercadas por outras. Esses algoritmos podem gerar sequências de palavras que imitam como um humano sequenciaria palavras, sem qualquer pensamento, sentimento ou compreensão humana de qualquer tipo”.
A controvérsia do LaMDA é sobre humanos, não IA
Kevin Dewalt, CEO da consultoria de IA Prolego, insiste que a algazarra do LaMDA não tem nada a ver com IA. “É sobre nós, a reação das pessoas a essa tecnologia emergente”, disse ele. “À medida que as empresas implantam soluções que executam tarefas tradicionalmente feitas por pessoas, os funcionários que se envolvem com elas vão surtar.” E acrescentou: “Se o Google não estiver pronto para esse desafio, você pode ter certeza de que hospitais, bancos e varejistas enfrentarão uma revolta massiva de funcionários. Eles não estão prontos.”
Então, o que as organizações devem fazer para se preparar? Dewalt disse que as empresas precisam antecipar essa objeção e superá-la com antecedência. “A maioria está lutando para construir e implantar a tecnologia, então esse risco não está no radar deles, mas o exemplo do Google ilustra por que ele precisa estar”, disse ele. “[But] ninguém está preocupado com isso, ou mesmo prestando atenção. Eles ainda estão tentando fazer a tecnologia básica funcionar.”
Concentre-se no que a IA pode realmente fazer
No entanto, enquanto alguns se concentraram na ética de uma possível IA “sensível”, a ética da IA hoje está focada no viés humano e como a programação humana afeta a IA atual “burra”, diz Bradford Newman, sócio do escritório de advocacia Baker McKenzie, que falou para mim na semana passada sobre a necessidade de as organizações nomearem um diretor de IA. E, ele ressalta, a ética da IA relacionada ao viés humano é uma questão significativa que está realmente acontecendo agora, em oposição à IA “senciente”, que não está acontecendo agora ou em nenhum momento remoto em breve.
“As empresas devem sempre considerar como qualquer aplicativo de IA voltado para o cliente ou para o público pode impactar negativamente sua marca e como eles podem usar comunicação eficaz, divulgações e ética para evitar isso”, disse ele. “Mas agora o foco na ética da IA é como o preconceito humano entra na cadeia – que os humanos estão usando dados e técnicas de programação que distorcem injustamente a IA não inteligente que é produzida”.
Por enquanto, Newman disse que diria aos clientes para se concentrarem nos casos de uso do que a IA pretende e faz, e deixar claro o que a IA não pode fazer programaticamente. “As corporações que fazem essa IA sabem que há um enorme apetite na maioria dos seres humanos para fazer qualquer coisa para simplificar suas vidas e que, cognitivamente, gostamos disso”, disse ele, explicando que, em alguns casos, há um enorme apetite para fazer a IA parecer senciente. “Mas meu conselho seria: certifique-se de que o consumidor saiba para que a IA pode ser usada e para que ela é incapaz de ser usada.”
A realidade da IA é mais sutil do que ‘senciente’
O problema é que “clientes e pessoas em geral não apreciam as nuances importantes de como os computadores funcionam”, disse Ferrucci – principalmente quando se trata de IA, por causa da facilidade com que pode ser desencadear uma resposta empática enquanto tentamos tornar a IA parecem mais humanos, tanto em termos de tarefas físicas como intelectuais.
“Para Watson, a resposta humana estava em todo o mapa – tínhamos pessoas que achavam que Watson estava procurando respostas para perguntas conhecidas em uma planilha pré-preenchida”, lembrou ele. “Quando expliquei que a máquina nem sabia quais perguntas seriam feitas, a pessoa disse: “O quê! Como diabos você faz isso então?” No outro extremo, tivemos pessoas nos ligando nos dizendo para libertar o Watson.”
Ferrucci disse que, nos últimos 40 anos, viu dois modelos extremos para o que está acontecendo: “A máquina é uma grande mesa de consulta ou a máquina deve ser humana”, disse ele. “Não é categoricamente – a realidade é apenas mais sutil do que isso, ecu temo.”
Não se esqueça de se inscrever IA semanal aqui.
— Sharon Goldman, editora/escritora sênior
Twitter: @sharongoldman
[ad_2]
Fonte da Notícia: venturebeat.com