A visão de Yann LeCun para criar máquinas autônomas
[ad_1]
Estamos empolgados em trazer o Change into 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!
Em meio ao acalorado debate sobre senciência de IA, máquinas conscientes e inteligência synthetic geral, Yann LeCun, cientista-chefe de IA da Meta, publicou um plano para criar “inteligência de máquina autônoma”.
LeCun compilou suas ideias em um papel que se inspira no progresso em aprendizado de máquina, robótica, neurociência e ciência cognitiva. Ele estabelece um roteiro para a criação de IA que pode modelar e entender o mundo, raciocinar e planejar tarefas em diferentes escalas de pace.
Embora o artigo não seja um documento acadêmico, ele fornece uma estrutura muito interessante para pensar sobre as diferentes peças necessárias para replicar a inteligência animal e humana. Também mostra como a mentalidade de LeCun, um premiado pioneiro do aprendizado profundo, mudou e por que ele acha que as abordagens atuais da IA não nos levarão à IA de nível humano.
Uma estrutura modular
Um elemento da visão de LeCun é uma estrutura modular de diferentes componentes inspirados em várias partes do cérebro. Esta é uma ruptura com a abordagem standard em aprendizado profundo, onde um único modelo é treinado de ponta a ponta.
No centro da arquitetura está um modelo mundial que prevê os estados do mundo. Embora a modelagem do mundo tenha sido discutida e tentada em diferentes arquiteturas de IA, elas são específicas da tarefa e não podem ser adaptadas a diferentes tarefas. LeCun sugere que, como humanos e animais, os sistemas autônomos devem ter um único modelo de mundo flexível.
“Uma hipótese neste artigo é que animais e humanos têm apenas um motor de modelo mundial em algum lugar em seu córtex pré-frontal”, escreve LeCun. “Esse mecanismo de modelo mundial é configurável dinamicamente para a tarefa em questão. Com um mecanismo de modelo de mundo único e configurável, em vez de um modelo separado para cada situação, o conhecimento sobre como o mundo funciona pode ser compartilhado entre as tarefas. Isso pode permitir o raciocínio por analogia, aplicando o modelo configurado para uma situação a outra situação.”
O modelo de mundo é complementado por vários outros módulos que ajudam o agente a entender o mundo e a realizar ações relevantes para seus objetivos. O módulo de “percepção” desempenha o papel do sistema sensorial animal, coletando informações do mundo e estimando seu estado atual com a ajuda do modelo mundial. Nesse sentido, o modelo de mundo realiza duas tarefas importantes: primeiro, ele preenche as informações que faltam no módulo de percepção (por exemplo, objetos ocluídos) e, segundo, prediz os estados futuros plausíveis do mundo (por exemplo, onde bola voadora esteja no próximo passo de pace).
O módulo “custo” avalia o “desconforto” do agente, medido em energia. O agente deve tomar ações que reduzam seu desconforto. Alguns dos custos são hardwired, ou “custos intrínsecos”. Por exemplo, em humanos e animais, esses custos seriam fome, sede, dor e medo. Outro submódulo é o “crítico treinável”, cujo objetivo é reduzir os custos para atingir um determinado objetivo, como navegar até um native, construir uma ferramenta and so forth.
O módulo de “memória de curto prazo” armazena informações relevantes sobre os estados do mundo ao longo do pace e o valor correspondente do custo intrínseco. A memória de curto prazo desempenha um papel importante em ajudar o modelo mundial a funcionar corretamente e fazer previsões precisas.
O módulo “ator” transforma previsões em ações específicas. Ele obtém sua entrada de todos os outros módulos e controla o comportamento externo do agente.
Por fim, um módulo “configurador” cuida do controle executivo, ajustando todos os outros módulos, inclusive o modelo de mundo, para a tarefa específica que deseja realizar. Este é o módulo chave que garante que uma única arquitetura possa lidar com muitas tarefas diferentes. Ele ajusta o modelo de percepção, modelo de mundo, função de custo e ações do agente com base no objetivo que deseja alcançar. Por exemplo, se você está procurando uma ferramenta para cravar um prego, seu módulo de percepção deve ser configurado para procurar itens pesados e sólidos, seu módulo de ator deve planejar ações para pegar o martelo improvisado e usá-lo para conduzir o prego, e seu módulo de custo deve ser capaz de calcular se o objeto é manejável e próximo o suficiente ou se você deve estar procurando por outra coisa que esteja ao seu alcance.
Curiosamente, em sua arquitetura proposta, LeCun considera dois modos de operação, inspirados no “Pensando Rápido e Lento” dicotomia. O agente autônomo deve ter um modelo operacional “Modo 1”, um comportamento rápido e reflexivo que vincule diretamente as percepções às ações, e um modelo operacional “Modo 2”, que é mais lento e envolvente e united states o modelo de mundo e outros módulos para raciocinar e plano.
Aprendizagem auto-supervisionada
Embora a arquitetura proposta pelo LeCun seja interessante, implementá-la apresenta vários grandes desafios. Entre eles está o treinamento de todos os módulos para a execução de suas tarefas. Em seu artigo, LeCun faz amplo uso dos termos “diferenciável”, “baseado em gradiente” e “otimização”, o que indica que ele acredita que a arquitetura será baseada em uma série de modelos de aprendizado profundo em oposição a sistemas simbólicos em que o conhecimento foi incorporado antecipadamente pelos humanos.
LeCun é um defensor da aprendizagem auto-supervisionada, um conceito sobre o qual ele vem falando há vários anos. Um dos principais gargalos de muitos aplicativos de aprendizado profundo é a necessidade de exemplos anotados por humanos, e é por isso que eles são chamados de modelos de “aprendizagem supervisionada”. A rotulagem de dados não é dimensionada e é lenta e cara.
Por outro lado, modelos de aprendizado não supervisionados e autossupervisionados aprendem observando e analisando dados sem a necessidade de rótulos. Por meio da autosupervisão, as crianças humanas adquirem conhecimento de senso comum do mundo, incluindo gravidade, dimensionalidade e profundidade, persistência de objetos e até coisas como relacionamentos sociais. Os sistemas autônomos também devem ser capazes de aprender por conta própria.
Nos últimos anos, houve alguns avanços importantes na aprendizagem não supervisionada e na aprendizagem autosupervisionada, principalmente em modelos de transformadores, a arquitetura de aprendizado profundo usada em grandes modelos de linguagem. Os transformadores aprendem as relações estatísticas das palavras mascarando partes de um texto conhecido e tentando prever a parte que falta.
Uma das formas mais populares de aprendizagem auto-supervisionada é “aprendizagem contrastiva”, em que um modelo é ensinado a aprender as características latentes das imagens por meio de mascaramento, aumento e exposição a diferentes poses do mesmo objeto.
No entanto, LeCun propõe um tipo diferente de aprendizado autossupervisionado, que ele descreve como “modelos baseados em energia”. Os EBMs tentam codificar dados de alta dimensão, como imagens, em espaços de incorporação de baixa dimensão que preservam apenas os recursos relevantes. Ao fazer isso, eles podem calcular se duas observações estão relacionadas entre si ou não.
Em seu artigo, LeCun propõe a “Joint Embedding Predictive Structure” (JEPA), um modelo que united states EBM para capturar dependências entre diferentes observações.
“Uma vantagem considerável do JEPA é que pode optar por ignorar os detalhes que não são facilmente previsíveis”, escreve LeCun. Basicamente, isso significa que, em vez de tentar prever o estado do mundo no nível do pixel, o JEPA prevê os recursos latentes e de baixa dimensão que são relevantes para a tarefa em questão.
No artigo, LeCun discute ainda o JEPA Hierárquico (H-JEPA), um plano para empilhar modelos JEPA uns sobre os outros para lidar com o raciocínio e o planejamento em diferentes escalas de pace.
“A capacidade do JEPA de aprender abstrações sugere uma extensão da arquitetura para lidar com a previsão em várias escalas de pace e vários níveis de abstração”, escreve LeCun. “Intuitivamente, as representações de baixo nível contêm muitos detalhes sobre a entrada e podem ser usadas para prever no curto prazo. Mas pode ser difícil produzir previsões precisas de longo prazo com o mesmo nível de detalhe. Por outro lado, a representação abstrata de alto nível pode permitir previsões de longo prazo, mas ao custo de eliminar muitos detalhes.”
O caminho para os agentes autônomos
Em seu artigo, LeCun admite que muitas coisas permanecem sem resposta, incluindo a configuração dos modelos para aprender os recursos latentes ideais e uma arquitetura e função precisas para o módulo de memória de curto prazo e suas crenças sobre o mundo. LeCun também diz que o módulo configurador ainda permanece um mistério e mais trabalho precisa ser feito para que funcione corretamente.
Mas LeCun afirma claramente que as propostas atuais para alcançar a IA de nível humano não funcionarão. Por exemplo, um argumento que ganhou muita força nos últimos meses é o de “é tudo uma questão de escala”. Alguns cientistas sugerem que, ao dimensionar modelos de transformadores com mais camadas e parâmetros e treiná-los em conjuntos de dados maiores, eventualmente chegaremos à inteligência geral synthetic.
LeCun refuta essa teoria, argumentando que LLMs e transformadores funcionam desde que sejam treinados em valores discretos.
“Esta abordagem não funciona para modalidades contínuas de alta dimensão, como vídeo. Para representar esses dados, é preciso eliminar informações irrelevantes sobre a variável a ser modelada por meio de um codificador, como no JEPA”, escreve.
Outra teoria é “recompensa é suficiente”, proposto por cientistas da DeepMind. De acordo com essa teoria, a função de recompensa correta e o algoritmo de aprendizado por reforço correto são tudo o que você precisa para criar inteligência geral synthetic.
Mas LeCun argumenta que, embora a RL exija que o agente interaja constantemente com seu ambiente, grande parte do aprendizado que humanos e animais fazem é por meio da percepção pura.
LeCun também refuta o híbrido “neuro-simbólico” abordagem, dizendo que o modelo provavelmente não precisará de mecanismos explícitos para manipulação de símbolos e descreve o raciocínio como “minimização de energia ou satisfação de restrições pelo ator usando vários métodos de busca para encontrar uma combinação adequada de ações e variáveis latentes”.
Muito mais precisa acontecer antes que o projeto de LeCun se torne realidade. “É basicamente no que estou planejando trabalhar e espero inspirar outras pessoas a trabalhar na próxima década”, disse ele. escreveu no Fb depois que ele publicou o jornal.
A missão do VentureBeat é ser uma praça virtual para os tomadores de decisões técnicas adquirirem conhecimento sobre tecnologia empresarial transformadora e realizarem transações. Aprender mais sobre a associação.
[ad_2]
Fonte da Notícia: venturebeat.com


