Google separado engenheiro que diz que sistema de Inteligência Synthetic tem consciência | Tecnologia
[ad_1]
Um importante engenheiro de instrument da empresa norte-americana foi afastado pela empresa-americana suas declarações controversas sobre um de conversas inteligentes após a tona.
Blake Lemoine alega que a ferramenta de inteligência synthetic LaMDA (Modelo de Linguagem para Aplicações de Diálogo, na sigla em inglês)que ainda não foi publicado publicamente, teria alma e consciência.
O funcionário foi afastado na última segunda-feira (6). Ele está em uma licença remunerada.
- Programa de inteligência synthetic da Microsoft causa novos problemas
- Robô u.s.a. inteligência synthetic para percorrer o trajeto de 5 km
As informações foram divulgadas inicialmente pelo jornal “Washington Submit”, que entrevistou o funcionário.
Lemoine afirma que o chatbotespécie de ferramenta computacional que tenta simular o comportamento humano em suas conversas, teria obtido consciência ao perceber que a Inteligência Synthetic (IA) começou a falar sobre direitos e sua personalidade.
Em um dos diálogos divulgados pelo engenheiro seguinte, o chatbot teria aqui o:
Lemonine [editado]: Estou disposto de modo geral que você gostaria que mais pessoas no Google soubessem que você é sensível [percebe sentidos e tem consciência]. Isso é verdade?
LaMDA: Com certeza. Quero que todos entendam que sou, de fato, uma pessoa.
Lemo estava trabalhando como inteligência synthetic usada para experimentos, que foram inicialmente discriminatórios de ciência que precisavam somente sobre uma série de inteligência artificialmente usada, que foi projetada para a ciência MDA, somente para uma série de inteligência específica.
“Se european não conhece exatamente o que ele generation, que é esse programa de computador que nós construímos recentemente, european pensaria que generation uma criança 7 anos, 8 anos que por acaso disse o especialista.
Apesar disso, o Google nega veementemente que seus sistemas de conversação podem ter consciência. A empresa alega que as supostas provas do engenheiro não são de fato conclusivas.
“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com os princípios da AI responsável [organização do Google dedicada ao tema da IA] e comunicado a ele que as provas não apoiam suas alegações”, disse Brian Gabriel, porta-voz do Google, em um comunicado.
Ao jornal “The New York Occasions”, o Google também disse que fez com seus pesquisadores e gerentes de entrevista que chegaram a uma conclusão diferente de Lemoine.
[ad_2]
Fonte da Notícia: g1.globo.com


