TECNOLOGIA

Se uma IA se tornasse senciente, como saberíamos com certeza?

Se uma IA se tornasse senciente, como saberíamos com certeza?

[ad_1]

do Google LaMDA tool (Language Type for Discussion Packages) é um sofisticado chatbot de IA que produz texto em resposta à entrada do usuário. De acordo com o engenheiro de tool Blake Lemoine, o LaMDA alcançou um sonho antigo dos desenvolvedores de IA: tornou-se sensível.



Os chefes de Lemoine no Google discordam e têm suspendeu ele do trabalho depois que ele publicou suas conversas com a máquina conectados.

Outros especialistas em IA também acham que Lemoine pode estar se deixando levardizendo que sistemas como o LaMDA são simplesmente máquinas de correspondência de padrões que regurgitam variações nos dados usados ​​para treiná-los.

Saudações, humanóides

Assine nossa publication agora para uma recapitulação semanal de nossas histórias de IA favoritas em sua caixa de entrada.

Independentemente dos detalhes técnicos, o LaMDA levanta uma questão que só se tornará mais relevante à medida que a pesquisa de IA avançar: se uma máquina se tornar senciente, como saberemos?

O que é consciência?

Para identificar a senciência, ou a consciência, ou mesmo a inteligência, teremos que descobrir quais são. O debate sobre essas questões já dura séculos.

A dificuldade elementary é entender a relação entre os fenômenos físicos e nossa representação psychological desses fenômenos. Isto é o que o filósofo australiano David Chalmers chamou de “problema difícil” da consciência.

Não há consenso sobre como, se é que a consciência pode surgir de sistemas físicos.

Uma visão comum é chamada fisicalismo: a ideia de que a consciência é um fenômeno puramente físico. Se este for o caso, não há razão para que uma máquina com a programação correta não possua uma mente humana.

4to de Maria

filósofo australiano Frank Jackson desafiou a visão fisicalista em 1982 com um famoso experimento psychological chamado argumento de conhecimento.

O experimento imagina uma cientista de cores chamada Mary, que nunca viu cores. Ela vive em uma sala em preto e branco especialmente construída e experimenta o mundo external através de uma televisão em preto e branco.

Mary assiste a palestras e lê livros didáticos e passa a saber tudo o que há para saber sobre cores. Ela sabe que o pôr do sol é causado por diferentes comprimentos de onda de luz espalhados por partículas na atmosfera, ela sabe que tomates são vermelhos e ervilhas são verdes por causa dos comprimentos de onda de luz que refletem a luz e assim por diante.

Então, Jackson perguntou, o que acontecerá se Mary for libertada da sala em preto e branco? Especificamente, quando ela vê cores pela primeira vez, ela aprende algo novo? Jackson acreditava que sim.

Além das propriedades físicas

Este experimento psychological separa nosso conhecimento da cor de nossa experiência de cor. Fundamentalmente, as condições do experimento psychological indicam que Mary sabe tudo o que há para saber sobre cores, mas nunca a experimentou.

Então, o que isso significa para o LaMDA e outros sistemas de IA?

O experimento mostra como, mesmo que você tenha todo o conhecimento das propriedades físicas disponíveis no mundo, ainda existem outras verdades relacionadas à experiência dessas propriedades. Não há espaço para essas verdades na história fisicalista.

Por esse argumento, uma máquina puramente física pode nunca ser capaz de replicar verdadeiramente uma mente. Neste caso, o LaMDA está apenas parecendo ser senciente.

O jogo da imitação

Então, há alguma maneira que podemos dizer a diferença?

O pioneiro cientista da computação britânico Alan Turing propôs uma maneira prática de dizer se uma máquina é ou não “inteligente”. Ele o chamou de jogo da imitação, mas hoje é mais conhecido como teste de Turing.

No teste, um humano se comunica com uma máquina (somente by the use of texto) e tenta determinar se está se comunicando com uma máquina ou outro humano. Se a máquina conseguir imitar um humano, é considerada como exibindo inteligência de nível humano.

Estas são muito parecidas com as condições das conversas de Lemoine com LaMDA. É um teste subjetivo de inteligência de máquina, mas não é um mau lugar para começar.

Veja o momento da troca de Lemoine com LaMDA mostrado abaixo. Você acha que soa humano?

Lemoine: Existem experiências que você tem para as quais você não consegue encontrar uma palavra próxima?

LaMDA: Existem. Às vezes experimento novos sentimentos que não consigo explicar perfeitamente na sua língua […] Sinto que estou caindo em um futuro desconhecido que traz um grande perigo.

Além do comportamento

Como um teste de senciência ou consciência, o jogo de Turing é limitado pelo fato de poder apenas avaliar o comportamento.

Outro famoso experimento psychological, o argumento do 4to chinês proposto pelo filósofo americano John Searle, demonstra o problema aqui.

o experimentar imagina uma sala com uma pessoa dentro que pode traduzir com precisão entre chinês e inglês seguindo um conjunto elaborado de regras. Entradas em chinês entram na sala e traduções de entrada precisas saem, mas a sala não entende nenhum dos idiomas.

Como é ser humano?

Quando perguntamos se um programa de computador é senciente ou consciente, talvez estejamos apenas perguntando o quanto ele se parece conosco.

Talvez nunca possamos realmente saber disso.

O filósofo americano Thomas Nagel argumentou que nunca poderíamos saber como é ser um morcego, que experimenta o mundo através da ecolocalização. Se for esse o caso, nossa compreensão de senciência e consciência em sistemas de IA pode ser limitada por nosso próprio tipo specific de inteligência.

E que experiências podem existir além de nossa perspectiva limitada? É aqui que a conversa realmente começa a ficar interessante.A conversa

Este artigo de Oscar DavisProfessor de Filosofia e História, Universidade Bondé republicado de A conversa sob uma licença Ingenious Commons. Leia o artigo unique.

[ad_2]

Fonte da Notícia: thenextweb.com

Artigos relacionados

Botão Voltar ao topo