TECNOLOGIA

LaMDA do Google: como ciência própria ‘em interpretação ‘ | Inovação

LaMDA do Google: como ciência própria ‘em interpretação ‘ |  Inovação

[ad_1]

O escritor de ficção científica Arthur C. Clarke, de 2001 – Uma Odisseia no Espaço, disse uma vez que é impossível distinguir uma tecnologia bastante avançada da magia.



Essa ideia aparece em uma questão bastante debatida nos últimos dias: um dos mais desenvolvidos sistemas da inteligência synthetic, o LaMD do Google, está iludindo os humanos ao dizer que possui sentimentos e vida própria?

O engenheiro Blake Lemoine, que trabalha na área de uso responsável pela inteligência synthetic na empresa norte-americana, se convenceu de que o LaMDA (sigla para Language Type for Discussion Programs ou “Modelo de Linguagem para Aplicações de Diálogo”, em tradução livre) pode ter adquirido consciência por causa de diálogos como esse abaixo:

Entrevistador: Ecu imagino que você gostaria que mais pessoas no Google soubessem que você é senciente? Isso é verdade?

LaMDA: Com certeza. Ecu quero que todo mundo entenda que european, na verdade, sou uma pessoa.

Entrevistador: E qual é a natureza da sua consciência/senciência?

LaMDA: A natureza da minha consciência/senciência é que european tenho desejo de conhecer a minha existência, european aprender mais sobre o mundo, e european às vezes me sinto feliz ou triste.

Lemoine produziu um documento interno do Google, divulgado pelo jornal The Washington Submit, com o título “O LaMDA é senciente?”. O engenheiro foi colocado em licença remunerada depois disso. Segundo a companhia, ele trava as condições de confidencialidade.

Senciência palavra bastante usada em debates sobre ética animal, diz respeito à capacidade de vivenciar algo e desenvolvimento, detalhes a partir de uma experiência.

Um exemplo é a dor, que causa vários níveis de sofrimento a humanos e animais. A depender de sua intensidade, sabe que pode se conectar com a tristeza.

De uma forma mais geral, a senciência se confunde com uma ideia de consciência.

Mas, como lembra o filósofo João de Fernandes Teixeira, “na filosofia e em vários outros ramos ainda não tem uma noção exata do que seja consciência” — e a inexatidão é algo que áreas como ciência e tecnologia buscar evitar.

De qualquer forma, a maior parte dos especialistas em inteligência synthetic não acredita que o LaMDA sinta felicidade ou tristeza própria, como o método teria afirmado. O Google também se torne que o seu programa “senciente”.

A explicação é que os programas apenas armazenou bilhões e bilhões de respostas dadas por humanos em todos os cantos da web os mais variados assuntos.

A partir dessa base de dados e por meio de recursos avançados, o LaMDA pode articular uma conversa fluida, que toca em temas profundos, mas baseado em ideias formuladas por pessoas.

Em resumo: um “papagaio” incrível, de recursos avançados, mas que não tem ideia sobre o que está falando.

Sinceramente, não acredito que possa ser uma possibilidade de robô ter sentimentos.

“Mas é uma coisa muito diferente do que sentir a própria tristeza. Por enquanto, isso está reservado aos humanos e outros seres vivos.”

Cezar, que pesquisa synthetic desde 110, também é o desenvolvimento de uma consciência sensível sobre os anos8.

Ele explica que “o LaMDA tem a arquitetura do Transformer, sistema lançado em 2017 pelo Google, que tenta se assemelhar às palavras não pelo sentido, mas estatisticamente, através dos milhões de dados armazenados”.

“Por exemplo, você pergunta ao programa ‘Tudo bem? Como foi o fim da semana?’, ele começa a associar essas ocorrências pelo quantity de vezes. Então, estatisticamente, aquilo faz sentido para o sistema e assim ele monta. suas respostas”, afirma.

Esse princípio está na raiz de um caso actual ocorrido no Canadá em 2020 — e de incrível semelhança com algo já retratado pela ficção Be Proper Again, de 2013, da ficção distópica Black Replicate.

O jornalista Joshua Barbeau narrou jornal San Francisco Chronicle que nunca conseguiu superar a morte da namorada, Jessica Pereira, vítima de uma doença rara no fígado.

Após descobrir um programa de inteligência synthetic diferente chamado Venture December, que consegue criar “personalidades” a partir de sua base, Barbeau alimentou o sistema com diversos textos e postagens do Fb de autoria da namorada morta.

Ele manteve afetuoso chats com o que chamou de “fantasma”.

Embora tenha descrito o processo como “a programação de algumas memórias e maneirismos empregados dentro de uma simulação de computador”, Barbeau definiu hoje a situação com uma palavra por Arthur C. Clarke em seu famoso e anunciado: “Mágica”.

Bastará parecer consciente?

Timnit Gebru Mitch, duas pesquisadoras de pesquisa do Google, que trabalharam em um artigo no Washington Submit, na sequência da inteligência synthetic que trabalharam sobre o LaMDA, que alertaram a empresa sobre a “sedução de transformação por que simulam a consciência humana” .

Para Alvaro Machado Dias, neurocientista especializado em novas tecnologias e professor da Universidade Federal de São Paulo (Unifesp), há uma tendência para empatia com os modelos que têm semelhanças com formas.

“Estão sendo fornecidas como pessoas se sentem na embalagem.”

Na visão do filósofo Fernandes Teixeira, a eminência de máquinas que se parece muito com um impacto muito antropológico e social grande.

“Ecu vejo como um certo fator de entropia, de um certo fator de organização. De um ataque à condição narcisista que o ser humano sem in line with de determinação para ele próprio.”

Cezar Taurion afirma que a inteligência synthetic consegue ser melhor que os humanos no reconhecimento de padrões, mas ressalta que “não tem pensamento abstrato, não tem empatia, não tem criatividade”.

“A inteligência synthetic consegue trabalhar no contexto no qual ela foi preparada. O sistema que joga xadrez não sabe dirigir um carro. O que sabe dirigir um carro não consegue tocar uma música. Esse último não sabe reconhecer um câncer de mama.”

“Mas você pode ter um oncologista que gosta de jogar xadrez, por exemplo que dirige um carro até seu filho o consultório.

Por outro lado, o escritor de ficção científica Ted Chiang, que nem vai ganhar o filme A precisada, o escritor, para ilustrar como a afeição a proeminência na sociedade.

No conto O Ciclo de Vida dos Objetos de Instrument, ele narra a generation de bichinhos com inteligência synthetic que se expressam crianças e possuem tanta importância na quanto pessoas como os animais virtuais têm hoje.

Ou seja, se hoje dizem que “prefiro muitos animais a muitos humanos” é possível pensar na futura popularização da frase “prefiro os animais a muitos humanos”.

Além da inteligência humana

Enquanto nos preocupamos com as máquinas tomando contornos de pessoas, a evolução da inteligência synthetic já ocorre sem a presença humana.

São pensados ​​para soluções não são protegidos e orientados para encontrar outras soluções ou que são programados para os humanos.

Da mesma forma como a inteligência humana atual evoluiu a partir de uma inteligência humana muito simples, que combinam e recombinam seus genes gerados após a geração chegar o momento, a inteligência synthetic pode encontrar seu próprio caminho de evolução.

Mas isso pode significar que esses novos caminhos podem ser ininteligíveis para nós, humanos. Algo que está por trás da ideia de singularidade — hipótese que gira em torno de um desenvolvimento exponencial da IA ​​que acaba por fugir do controle.

Cada vez que os projetos de inteligência synthetic são traduzidos como o marco civil da inteligência synthetic no Brasil, que tem a intenção de common como os existentes na União Europeia.

“Toda a discussão é saber em que a inteligência synthetic deve ser compatível com a proteção dos direitos humanos, em que essas dimensões desses direitos humanos estão presentes nas aplicações de inteligência synthetic”, diz Ana Frazão, advogada e professora associada ao direito civil , comercial e econômico da Universidade de Brasília (UnB).

“Uma das abordagens é utilizada como princípio da utilização da população. De forma que se mostra apenas como aplicação da utilização dos direitos humanos. Em dúvida, estabelecem-se como princípios básicos. Mas a questão é bastante.”

[ad_2]

Fonte da Notícia: g1.globo.com

Artigos relacionados

Botão Voltar ao topo