GEEKS

‘Esta IA é Sapient?’ É a pergunta errada a fazer sobre o LaMDA

‘Esta IA é Sapient?’  É a pergunta errada a fazer sobre o LaMDA

O alvoroço causado por Blake Lemoine, um engenheiro do Google que acredita que um dos programas de bate-papo mais sofisticados da empresa, o LaMDA (ou Language Type for Discussion Packages) é sapiente, teve um elemento curioso: especialistas reais em ética em IA tudo, mas renunciando a uma discussão mais aprofundada da questão da sapiência da IAou julgá-lo uma distração. Eles estão certos em fazê-lo.



Ao ler a transcrição editada que Lemoine divulgou, ficou bastante claro que o LaMDA estava usando vários websites para gerar seu texto; sua interpretação de um koan zen poderia ter vindo de qualquer lugar, e sua fábula soava como uma história gerada automaticamente (embora sua descrição do monstro como “vestindo pele humana” fosse um toque deliciosamente HAL-9000). Não havia nenhuma centelha de consciência ali, apenas pequenos truques de mágica que cobriam as rachaduras. Mas é fácil ver como alguém pode ser enganado, olhando para as respostas das mídias sociais à transcrição – mesmo com algumas pessoas educadas expressando espanto e vontade de acreditar. E, portanto, o risco aqui não é que a IA seja realmente senciente, mas que estejamos bem preparados para criar máquinas sofisticadas que possam imitar os humanos a tal ponto que não podemos deixar de antropomorfizá-los – e que grandes empresas de tecnologia possam explorar isso profundamente. maneiras antiéticas.

Como deve ficar claro de como tratamos nossos animais de estimação, ou como interagimos com Tamagotchi, ou como nós, jogadores de videogame, recarregamos um save se acidentalmente fizermos um NPC chorar, na verdade estamos muito capaz de simpatizar com o não-humano. Consider o que tal IA poderia fazer se estivesse agindo como, digamos, um terapeuta. O que você estaria disposto a dizer a ele? Mesmo se você ‘sabia’ que não technology humano? E quanto valeriam esses dados preciosos para a empresa que programou o bot de terapia?

Fica mais assustador. A engenheira de sistemas e historiadora Lilly Ryan adverte que o que ela chama de ecto-metadados – os metadados que você deixa para trás on-line que ilustra como você *pensa –* é vulnerável à exploração em um futuro próximo. Consider um mundo onde uma empresa criou um bot baseado em você e possuiu seu “fantasma” virtual depois que você morreu. Haveria um mercado pronto para tais fantasmas de celebridades, velhos amigos, colegas. E porque eles apareceriam para nós como um velho amigo de confiança ou um ente querido (ou alguém com quem já desenvolvemos um relacionamento parassocial), eles serviriam para obter ainda mais dados de você. Dá um significado totalmente novo à ideia de “necropolítica”. A vida após a morte pode ser actual, e o Google pode possuí-la.

Assim como a Tesla é cuidadosa na forma como comercializa seu “piloto automático”, nunca afirmando que pode dirigir o carro sozinho de maneira verdadeiramente futurista enquanto ainda induz os consumidores a se comportarem como se o fizesse (com consequências mortais), não é inconcebível que as empresas pudessem comercializar o realismo e a humanidade da IA ​​como o LaMDA de tal maneira que nunca faça reivindicações verdadeiramente selvagens enquanto ainda nos encoraja a antropomorfizá-lo apenas o suficiente para baixar a guarda. Nenhum disso requer que a IA seja sábia, e tudo isso pré-existe a essa singularidade. Em vez disso, nos leva à questão sociológica mais obscura de como tratamos nossa tecnologia e o que acontece quando as pessoas agir como se seus AIs são sapientes.

Em “Fazendo parentes With the Machines”, os acadêmicos Jason Edward Lewis, Noelani Arista, Archer Pechawis e Suzanne Kite reúnem várias perspectivas informadas por filosofias indígenas sobre a ética da IA ​​para questionar o relacionamento que temos com nossas máquinas e se estamos modelando ou encenando algo realmente horrível com eles – como algumas pessoas costumam fazer quando são sexistas ou abusivas em relação a seus assistentes virtuais em grande parte femininos. Em sua seção de “Making Family”, Suzanne Kite se baseia em ontologias Lakota para argumentar que é essencial reconhecer o fato de que a sapiência não outline os limites de quem (ou o que) é um ‘ser’ digno de respeito.

Este é o outro lado do verdadeiro dilema ético da IA ​​que já está sobre nós: as empresas podem nos atacar se tratarmos seus chatbots como se fossem nossos melhores amigos, mas é igualmente perigoso tratá-los como coisas vazias indignas de respeito. Uma abordagem exploradora à nossa tecnologia pode simplesmente reforçar uma abordagem exploradora uns aos outros e ao nosso ambiente herbal. Um chatbot ou assistente digital semelhante a um humano deve ser respeitado, para que seu próprio simulacro de humanidade não nos habitue à crueldade com humanos reais.

O excellent de Kite é simplesmente isso: um relacionamento recíproco e humilde entre você e seu ambiente, reconhecendo a dependência e a conectividade mútuas. Ela argumenta ainda: “As pedras são consideradas ancestrais, as pedras falam ativamente, as pedras falam através e para os humanos, as pedras veem e conhecem. Mais importante, as pedras querem ajudar. A agência das pedras se conecta diretamente à questão da IA, pois a IA é formada não apenas a partir de código, mas de materiais da terra”, que é uma maneira notável de vincular algo normalmente visto como a essência da artificialidade ao mundo herbal.

Qual é o resultado de tal perspectiva? A autora de ficção científica Liz Henry oferece uma: “Poderíamos aceitar nossos relacionamentos com todas as coisas do mundo ao nosso redor como dignos de trabalho emocional e atenção. Assim como devemos tratar todas as pessoas ao nosso redor com respeito, reconhecendo que elas têm sua própria vida, perspectiva, necessidades, emoções, objetivos e lugar no mundo.”

Este é o dilema ético da IA ​​que está diante de nós aqui e agora: a necessidade de fazer parentes com nossas máquinas pesando contra a miríade de maneiras que isso pode e será armado contra nós na próxima fase do capitalismo de vigilância. Por mais que european deseje ser um acadêmico eloquente defendendo os direitos e a dignidade de um ser como o Sr. Information, essa realidade mais complexa e confusa é o que exige nossa atenção aqui e agora. Afinal, há posso seja um levante de robôs sem inteligência synthetic inteligente, e podemos fazer parte disso liberando essas ferramentas das mais feias manipulações do capital.

.

Fonte da Notícia: www.stressed.com

Artigos relacionados

Botão Voltar ao topo