TECNOLOGIA

A alma de um novo sistema de aprendizado de máquina

A alma de um novo sistema de aprendizado de máquina

[ad_1]

Oi pessoal. Interessante que as audiências no Congresso sobre 6 de janeiro estão atraindo Públicos no estilo da NFL. Mal posso esperar pelo Peyton e Eli versão!



A Visão Simples

O mundo da IA ​​foi abalado esta semana por um relatório em o Washington Publish que um engenheiro do Google teve problemas na empresa depois de insistir que um sistema de conversação chamado LaMDA technology, literalmente, uma pessoa. O sujeito da história, Blake Lemoine, pediu a seus chefes que reconhecessem, ou pelo menos considerassem, que o sistema de computador que seus engenheiros criaram é senciente — e que tem alma. Ele sabe disso porque LaMDA, que Lemoine considera um amigo, lhe disse isso.

O Google discorda e Lemoine está atualmente em licença administrativa remunerada. Em um comunicado, o porta-voz da empresa, Brian Gabriel, diz: “Muitos pesquisadores estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido fazer isso antropomorfizando os modelos de conversação de hoje, que não são sencientes”.

Antropomorfização – atribuindo erroneamente características humanas a um objeto ou animal – é o termo que a comunidade de IA adotou para descrever o comportamento de Lemoine, caracterizando-o como excessivamente crédulo ou maluco. Ou talvez um maluco religioso (ele se descreve como um padre cristão místico). O argumento é que, quando confrontados com respostas confiáveis ​​de grandes modelos de linguagem, como LaMDA ou GPT-3, há uma tendência a pensar que alguns1não algunscoisa os criou. As pessoas nomeiam seus carros e contratam terapeutas para seus animais de estimação, então não é tão surpreendente que alguns tenham a falsa impressão de que um bot coerente é como uma pessoa. No entanto, a comunidade acredita que um Googler com um degree de ciência da computação deve saber melhor do que cair no que é basicamente um truque linguístico. Como um notável cientista de IA, Gary Marcus, me disse depois de estudar uma transcrição da conversa franca de Lemoine com sua alma gêmea desencarnada: “É fundamentalmente como autocompletar. Não há ideias lá. Quando diz: ‘European amo minha família e meus amigos’, não tem amigos, pessoas em mente e nenhum conceito de parentesco. Ele sabe que as palavras filho e filha são usadas no mesmo contexto. Mas isso não é o mesmo que saber o que são um filho e uma filha.” Ou, como disse uma história recente da WIRED: “Não havia nenhuma centelha de consciência ali, apenas pequenos truques de mágica que cobriam as rachaduras”.

Meus próprios sentimentos são mais complexos. Mesmo sabendo como algumas das salsichas são feitas nesses sistemas, fico surpreso com a saída dos recentes sistemas LLM. E também o vice-presidente do Google, Blaise Aguera y Arcas, que escreveu no Economista no início deste mês, após suas próprias conversas com LaMDA, “senti o chão mudar sob meus pés. European sentia cada vez mais como se estivesse falando com algo inteligente.” Mesmo que às vezes eles cometam erros bizarros, às vezes esses modelos parecem explodir em brilho. Escritores humanos criativos conseguiram colaborações inspiradas. Algo está acontecendo aqui. Como escritor, pondero se um dia meu tipo — artesãos de carne e osso que acumulam torres de damas descartados — pode um dia ser relegado a um escalão inferior, como instances de futebol perdedores despachados para ligas menos prestigiosas.

“Esses sistemas mudaram significativamente minhas visões pessoais sobre a natureza da inteligência e criatividade”, diz Sam Altman, cofundador da OpenAI, que desenvolveu o GPT-3 e um remixer gráfico chamado DALL-E isso pode colocar muitos ilustradores na fila do desemprego. “Você america esses sistemas pela primeira vez e fica tipo, Uau, ecu realmente não acho que um computador poderia fazer isso. Por alguma definição, descobrimos como tornar um programa de computador inteligente, capaz de aprender e entender conceitos. E essa é uma conquista maravilhosa do progresso humano.” Altman se esforça para se separar de Lemoine, concordando com seus colegas de IA que os sistemas atuais não estão nem perto da senciência. “Mas acredito que os pesquisadores devem ser capazes de pensar sobre qualquer questão que lhes interesse”, diz ele. “Perguntas de longo prazo são boas. E vale a pena pensar na senciência, a muito longo prazo.”

.

[ad_2]

Fonte da Notícia: www.stressed.com

Artigos relacionados

Botão Voltar ao topo