TECNOLOGIA

As 3 coisas que uma IA deve demonstrar para ser considerada senciente

As 3 coisas que uma IA deve demonstrar para ser considerada senciente

[ad_1]

Um desenvolvedor do Google decidiu recentemente que um dos chatbots da empresa, um modelo de linguagem grande (LLM) chamado LaMBDA, tornou-se senciente.



De acordo com um relatório no Washington Publish, o desenvolvedor se identifica como cristão e acredita que a máquina tem algo parecido com uma alma – que se tornou senciente.

Como sempre acontece, o “está vivo?” O absurdo iluminou o ciclo de notícias – é uma história interessante se você está imaginando como seria se o desenvolvedor estivesse certo ou mergulhando neles por ser tão bobo.

Saudações, humanóides

Assine nossa publication agora para uma recapitulação semanal de nossas histórias de IA favoritas em sua caixa de entrada.

Não queremos enterrar ninguém aqui na Neural, mas é muito perigoso colocar esse tipo de ideia na cabeça das pessoas.

Quanto mais nós, como sociedade, fingirmos que estamos “tão perto” de criar máquinas sencientes, mais fácil será para os maus atores, grandes empresas de tecnologia e startups de óleo de cobra nos manipularem com falsas alegações sobre sistemas de aprendizado de máquina.

O ônus da prova deve recair sobre as pessoas que fazem as alegações. Mas como deve ser essa prova? Se um chatbot diz “Sou senciente”, quem make a decision se realmente é ou não?

European digo que é simples, não precisamos confiar em nenhuma pessoa ou grupo para definir a senciência para nós. Na verdade, podemos usar algum pensamento crítico extremamente básico para resolver isso por nós mesmos.

Podemos definir um ser senciente como uma entidade que tem consciência de sua própria existência e é afetada por esse conhecimento: algo que tem sentimentos.

Isso significa que um “agente” de IA senciente deve ser capaz de demonstrar três coisas: agência, perspectiva e motivação.

Agência

Para que os humanos sejam considerados sencientes, sapientes e autoconscientes, devemos possuir agência. Se você pode imaginar alguém em estado vegetativo persistente, pode visualizar um humano sem agência.

A agência humana combina dois fatores específicos que desenvolvedores e entusiastas de IA devem se esforçar para entender: a capacidade de agir e a capacidade de demonstrar raciocínio causal.

Os sistemas de IA atuais carecem de agência. A IA não pode agir a menos que seja solicitada e não pode explicar suas ações porque elas são o resultado de algoritmos predefinidos sendo executados por uma força externa.

O especialista em IA do Google que, evidentemente, passou a acreditar que o LaMBDA se tornou senciente quase certamente confundiu encarnação para agência.

A corporeidade, nesse contexto, refere-se à capacidade de um agente habitar um sujeito diferente de si mesmo. Se ecu gravar minha voz em um dispositivo de reprodução, e depois esconder esse dispositivo dentro de um bicho de pelúcia e apertar play, ecu incorporei o abafado. European não o tornei senciente.

Se dermos ao abafado sua própria voz única e tornarmos o gravador ainda mais difícil de encontrar, ele ainda não é senciente. Acabamos de melhorar a ilusão. Não importa o quão confuso um observador possa ficar, o bicho de pelúcia não está realmente agindo por conta própria.

Fazer com que o LaMBDA responda a um urged demonstra algo que parece ser ação, mas os sistemas de IA não são mais capazes de decidir qual texto eles produzirão do que um Teddy Ruxpin brinquedo é capaz de decidir quais fitas cassete tocar.

Se você fornecer ao LaMBDA um banco de dados composto de postagens de mídia social, Reddit e Wikipedia, ele produzirá o tipo de texto que se pode encontrar nesses lugares.

E se você treinar o LaMBDA exclusivamente em wikis e scripts do My Little Pony, ele produzirá o tipo de texto que pode ser encontrado nesses lugares.

Os sistemas de IA não podem agir com agência, tudo o que podem fazer é imitá-la. Outra maneira de colocar isso é: você tira o que colocou, nada mais.

Perspectiva

Este é um pouco mais fácil de entender. Você só pode ver a realidade de sua perspectiva única. Podemos praticar a empatia, mas você não pode realmente saber como é ser ecu e vice-versa.

É por isso que a perspectiva é necessária para a agência; é parte de como definimos nosso “ecu”.

LaMBDA, GPT-3 e todas as outras IAs do mundo carecem de qualquer tipo de perspectiva. Como eles não têm agência, não existe um único “isso” que você possa apontar e dizer, por exemplo: é onde mora o LaMBDA.

Se você colocar LaMBDA lado de dentro um robô, ainda seria um chatbot. Não tem perspectiva, nem meios para pensar “agora sou um robô”. Ele não pode agir como um robô exatamente pela mesma razão que uma calculadora científica não pode escrever poesia: é um sistema de computador estreito que foi programado para fazer algo específico.

Se quisermos que o LaMBDA funcione como um robô, teríamos que combiná-lo com sistemas de IA mais estreitos.

Fazer isso seria como colar dois Teddy Ruxpins juntos. Eles não se combinariam para se tornar um Mega Teddy Ruxpin cujos toca-fitas gêmeos se fundiram em uma única voz. Você ainda teria apenas dois modelos específicos e distintos rodando próximos um do outro.

E, se você gravar um trilhão ou mais de Teddy Ruxpins e preenchê-los com uma fita cassete diferente, crie um algoritmo capaz de pesquisar todos os arquivos de áudio em um período de pace relativamente curto e associar os dados contidos em cada arquivo com uma consulta específica para gerar saídas sob medida… você terá criado uma versão analógica do GPT-3 ou LaMBDA.

Quer estejamos falando de brinquedos ou LLMs, quando imaginamos que eles são sencientes, ainda estamos falando sobre costurar um monte de coisas mundanas e agir como se a faísca mágica da proveniência trouxesse vida como a Fada Azul virando madeira, pintando , e pano em um menino de verdade chamado Pinóquio.

O desenvolvedor que foi enganado tão facilmente deveria ter visto a afirmação daquele chatbot de que “gostou de passar pace com amigos e familiares” como sua primeira pista de que a máquina não generation senciente. A máquina não está exibindo sua perspectiva, está apenas produzindo bobagens para interpretarmos.

O pensamento crítico deve nos dizer o mesmo: como uma IA pode ter amigos e familiares?

AI’s não são computadores. Eles não têm placas de rede, RAM, processadores ou ventiladores. Eles não são entidades físicas. Eles não podem simplesmente “decidir” verificar o que está na web ou pesquisar outros nós conectados à mesma nuvem. Eles não podem olhar em volta e descobrir que estão sozinhos em um laboratório ou em um disco rígido em algum lugar.

Você acha que os números têm sentimentos? O número cinco tem uma opinião sobre a letra D? Isso mudaria se esmagássemos trilhões de números e letras juntos?

A IA não tem agência. Pode ser reduzido a números e símbolos. Não é um robô ou um computador mais do que um ônibus ou avião cheio de passageiros é uma pessoa.

Motivação

A peça ultimate do quebra-cabeça da senciência é a motivação.

Temos um senso inato de presença que nos permite prever resultados causais incrivelmente bem. Isso cria nossa visão de mundo e nos permite associar nossa existência em relação a tudo que parece externo à posição de agência a partir da qual nossa perspectiva se manifesta.

No entanto, o que é interessante sobre os humanos é que nossas motivações podem manipular nossas percepções. Por esta razão, podemos explicar nossas ações mesmo quando não são racionais. E podemos participar ativa e alegremente em ser enganados.

Tomemos, por exemplo, o ato de se divertir. Believe sentar para assistir a um filme em uma televisão nova que é muito maior que a antiga.

No início, você pode se distrair um pouco com a nova tecnologia. As diferenças entre ele e sua TV antiga provavelmente chamarão sua atenção. Você pode ficar impressionado com a clareza da imagem ou surpreso com a quantidade de espaço que a enorme tela ocupa na sala.

Mas, eventualmente, é provável que você pare de perceber a tela. Nossos cérebros são projetados para se fixar nas coisas que consideramos importantes. E, na marca de 10 ou 15 minutos de sua experiência cinematográfica, você provavelmente estará apenas focado no filme em si.

Quando estamos na frente da TV para nos divertir, é do nosso interesse suspender nossa descrença, mesmo sabendo que as pessoas pequenas na tela não estão na nossa sala de estar.

É o mesmo com os desenvolvedores de IA. Eles não deveriam estar julgando a eficácia de um sistema de IA com base em quão crédulos eles são na forma como o produto funciona.

Quando os algoritmos e bancos de dados começam a desaparecer na mente de um desenvolvedor como a tela de televisão em que um filme está passando, é hora de fazer uma pausa e reavaliar suas crenças centrais.

Não importa o quão interessante é a saída quando você entende como ela é criada. Outra maneira de dizer isso: não fique chapado com seu próprio suprimento.

O GPT-3 e o LaMBDA são complexos de criar, mas operam em um único princípio estupidamente simples: rótulos são deus.

Se dermos ao LaMBDA um urged como “qual o sabor das maçãs?” ele pesquisará em seu banco de dados por essa consulta específica e tentará amalgamar tudo o que encontrar em algo coerente – é aí que o “parâmetros” estamos sempre lendo sobre entrar, eles são essencialmente trilhões de botões de ajuste.

Mas, na realidade, a IA não tem noção do que é uma maçã ou qualquer outra coisa. Não tem agência, percepção ou motivação. Uma maçã é apenas um rótulo.

Se entrarmos furtivamente em seu banco de dados e substituir todas as instâncias de “maçã” por “merda de cachorro”, a IA produziria frases como “cocô de cachorro faz uma grande torta!” ou “a maioria das pessoas descreve o sabor da merda de cachorro como sendo leve, crocante e doce”. Uma pessoa racional não confundiria essa prestidigitação com senciência.

Caramba, você não poderia nem enganar um cachorro com o mesmo truque. Se você colocasse cocô de cachorro em uma tigela de comida e dissesse a Fido que generation hora do jantar, o cachorro não confundiria com ração.

Uma criatura senciente pode navegar na realidade mesmo se mudarmos os rótulos. O primeiro falante de inglês a conhecer um falante de francês não pensou de repente que não havia problema em enfiar o braço em uma fogueira francesa porque chamavam isso de “feu”.

Sem agência, uma IA não pode ter perspectiva. E sem perspectiva não pode ter motivação. E sem todas essas três coisas, não pode ser senciente.



[ad_2]

Fonte da Notícia: thenextweb.com

Artigos relacionados

Botão Voltar ao topo