O segredo obscuro por trás dessas imagens fofas de animais geradas por IA

[ad_1]
Não é nenhum segredo que grandes modelos, como DALL-E 2 e Imagen, treinados em um grande número de documentos e imagens retirados da internet, absorvem os piores aspectos desses dados, bem como os melhores. A OpenAI e o Google reconhecem isso explicitamente.
Position para baixo Web site de imagem—passando pela fruta do dragão usando um cinto de karatê e o pequeno cacto usando um chapéu e óculos escuros— até a seção sobre impacto social e você obtém isso: “Enquanto um subconjunto de nossos dados de treinamento foi filtrado para remover ruído e conteúdo indesejável, como pornografia imagens e linguagem tóxica, também utilizamos [the] Conjunto de dados LAION-400M que é conhecido por conter uma ampla variedade de conteúdo impróprio, incluindo imagens pornográficas, insultos racistas e estereótipos sociais prejudiciais. O Imagen conta com codificadores de texto treinados em dados em escala da Internet sem curadoria e, portanto, herda os preconceitos e limitações sociais de grandes modelos de linguagem. Como tal, existe o risco de que o Imagen tenha codificado estereótipos e representações prejudiciais, o que orienta nossa decisão de não liberar o Imagen para uso público sem outras salvaguardas”.
É o mesmo tipo de reconhecimento que a OpenAI fez quando revelou GPT-3 em 2019: “modelos treinados na web têm vieses em escala de web”. E, como apontou Mike Cook dinner, que pesquisa a criatividade em IA na Queen Mary College of London, está nas declarações de ética que acompanharam o grande modelo de linguagem PaLM do Google e o DALL-E 2 da OpenAI. Em suma, essas empresas sabem que seus modelos são capazes de produzir conteúdo horrível, e eles não têm ideia de como consertar isso.
[ad_2]
Fonte da Notícia