A Meta construiu uma nova linguagem de IA massiva – e está distribuindo gratuitamente
[ad_1]
Pineau ajudou a mudar a forma como as pesquisas são publicadas em várias das maiores conferências, apresentando uma lista de verificação de coisas que os pesquisadores devem enviar junto com seus resultados, incluindo código e detalhes sobre como os experimentos são executados. Desde que ingressou no Meta (então Fb) em 2017, ela defendeu essa cultura em seu laboratório de IA.
“Esse compromisso com a ciência aberta é o motivo de european estar aqui”, diz ela. “European não estaria aqui em outros termos.”
Em última análise, Pineau quer mudar a forma como julgamos a IA. “O que chamamos de estado da arte hoje em dia não pode ser apenas sobre efficiency”, diz ela. “Tem que ser de última geração em termos de responsabilidade também.”
Ainda assim, dar um grande modelo de linguagem é uma jogada ousada para o Meta. “Não posso dizer que não há risco de esse modelo produzir uma linguagem da qual não nos orgulhemos”, diz Pineau. “Será.”
Pesando os riscos
Margaret Mitchell, uma das pesquisadoras de ética em IA que o Google expulsou em 2020, que agora está no Hugging Face, vê o lançamento do OPT como um movimento positivo. Mas ela acha que há limites para a transparência. O modelo de linguagem foi testado com rigor suficiente? Os benefícios previsíveis superam os danos previsíveis – como a geração de desinformação ou linguagem racista e misógina?
“Lançar um grande modelo de linguagem para o mundo onde um grande público provavelmente o usará ou será afetado por sua saída traz responsabilidades”, diz ela. Mitchell observa que esse modelo será capaz de gerar conteúdo prejudicial não apenas por si mesmo, mas por meio de aplicativos downstream que os pesquisadores constroem em cima dele.
A Meta AI auditou o OPT para remover alguns comportamentos prejudiciais, mas o objetivo é lançar um modelo com o qual os pesquisadores possam aprender, com verrugas e tudo, diz Pineau.
“Houve muitas conversas sobre como fazer isso de uma maneira que nos deixasse dormir à noite, sabendo que há um risco diferente de 0 em termos de reputação, um risco diferente de 0 em termos de danos”, diz ela. Ela descarta a ideia de que você não deve lançar um modelo porque é muito perigoso – que é a razão que a OpenAI deu para não lançar o antecessor do GPT-3, GPT-2. “European entendo as fraquezas desses modelos, mas isso não é uma mentalidade de pesquisa”, diz ela.
.
[ad_2]
Fonte da Notícia



