TECNOLOGIA

Em vez da sensibilidade da IA, concentre-se nos riscos atuais de grandes modelos de linguagem

Publicidade
Em vez da sensibilidade da IA, concentre-se nos riscos atuais de grandes modelos de linguagem

[ad_1]

Estamos empolgados em trazer o Turn out to be 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!


Recentemente, um engenheiro do Google fez manchetes internacionais quando afirmou que o LaMDA, seu sistema para construir chatbots, generation senciente. Desde seu publish inicial, o debate público se alastrou sobre se a inteligência synthetic (IA) exibe consciência e experimenta sentimentos de forma tão aguda quanto os humanos.

Embora o tópico seja, sem dúvida, fascinante, também está ofuscando outros riscos mais urgentes, como injustiça e perda de privacidade causados ​​por modelos de linguagem de grande escala (LLMs), especialmente para empresas que estão correndo para integrar esses modelos em seus produtos e serviços. Esses riscos são ainda mais amplificados pelo fato de que as empresas que implantam esses modelos muitas vezes não têm conhecimento dos dados e métodos específicos usados ​​para criá-los, o que pode levar a problemas de preconceito, discurso de ódio e estereótipos.

O que são LLMs?

LLMs são enormes redes neurais que aprendem com enormes corpora de texto livre (pense em livros, Wikipedia, Reddit e similares). Embora sejam projetados para gerar texto, como resumir documentos longos ou responder a perguntas, eles se destacam em várias outras tarefas, desde geração de websites para prescrição de medicamentos à aritmética básica.

Publicidade

É essa capacidade de generalizar para tarefas para as quais não foram originalmente projetadas que impulsionou os LLMs para uma importante área de pesquisa. A comercialização está ocorrendo em todos os setores, adaptando modelos básicos criados e treinados por outros (por exemplo, OpenAI, Google, Microsoft e outras empresas de tecnologia) para tarefas específicas.

Pesquisadores de Stanford cunhou o termo “modelos fundamentais” para caracterizar o fato de que esses modelos pré-treinados fundamentam inúmeras outras aplicações. Infelizmente, esses modelos maciços também trazem riscos substanciais.

A desvantagem dos LLMs

O main desses riscos: o custo ambiental, que pode ser enorme. Um artigo bem citado de 2019 descobriu que treinar um único modelo grande pode produzir tanto carbono quanto cinco carros ao longo de suas vidas – e os modelos só ficaram maiores desde então. Esse custo ambiental tem implicações diretas em quão bem uma empresa pode cumprir seus compromissos de sustentabilidade e, mais amplamente, suas metas ESG. Mesmo quando as empresas confiam em modelos treinados por outros, a pegada de carbono do treinamento desses modelos não pode ser ignorada, consistente com a forma como uma empresa deve rastrear as emissões em toda a sua cadeia de suprimentos.

Depois, há a questão do preconceito. Descobriu-se que as fontes de dados da Web comumente usadas para treinar esses modelos contêm preconceito em relação a vários grupos, incluindo pessoas com deficiência e mulheres. Eles também super-representam usuários mais jovens de países desenvolvidos, perpetuando essa visão de mundo e diminuir o impacto de populações sub-representadas.

Isso tem um impacto direto nos compromissos de DEI das empresas. Seus sistemas de IA podem continuar a perpetuar preconceitos mesmo enquanto eles se esforçam para corrigir esses preconceitos em outras partes de suas operações, como em suas práticas de contratação. Eles também podem criar aplicativos voltados para o cliente que não produzem resultados consistentes ou confiáveis ​​em regiões geográficas, idades ou outros subgrupos de clientes.

Os LLMs também podem ter resultados imprevisíveis e assustadores que podem representar perigos reais. Tomemos, por exemplo, o artista que usou um LLM para recriar seu amigo imaginário de infância, apenas para que seu amigo imaginário lhe pedisse para colocar a cabeça no microondas. Embora isso possa ser um exemplo extremo, as empresas não podem ignorar esses riscos, principalmente nos casos em que os LLMs são aplicados em áreas inerentemente de alto risco como saúde.

Esses riscos são ainda mais amplificados pelo fato de que pode haver falta de transparência em todos os ingredientes que participam da criação de um sistema de IA moderno e de nível de produção. Isso pode incluir pipelines de dados, inventários de modelos, métricas de otimização e opções de design mais amplas na interação dos sistemas com humanos. As empresas não devem integrar cegamente modelos pré-treinados em seus produtos e serviços sem considerar cuidadosamente o uso pretendido, os dados de origem e as inúmeras outras considerações que levam aos riscos descritos anteriormente.

A promessa dos LLMs é empolgante e, nas circunstâncias certas, eles podem gerar resultados comerciais impressionantes. A busca desses benefícios, no entanto, não pode significar ignorar os riscos que podem levar a danos ao cliente e à sociedade, litígios, violações regulatórias e outras implicações corporativas.

A promessa da IA ​​responsável

Mais amplamente, as empresas que buscam IA devem implementar um programa robusto de IA responsável (RAI) para garantir que seus sistemas de IA sejam consistentes com seus valores corporativos. Isso começa com uma estratégia abrangente que inclui princípios, taxonomias de risco e uma definição de apetite de risco específico de IA.

Também importante em tal programa é colocar em prática a governança e os processos para identificar e mitigar riscos. Isso inclui responsabilidade clara, escalação e supervisão e integração direta em funções de risco corporativo mais amplas.

Ao mesmo pace, os colaboradores devem ter mecanismos para levantar preocupações éticas sem medo de represálias, que são avaliadas de forma clara e transparente. Uma mudança cultural que alinhe este programa RAI com a missão e os valores da organização aumenta an opportunity de sucesso. Por fim, os processos-chave para o desenvolvimento de produtos – KPIs, monitoramento e controles de portfólio e direção e design de programas – também podem aumentar a probabilidade de sucesso.

Enquanto isso, é importante desenvolver processos para construir conhecimento responsável de IA no desenvolvimento de produtos. Isso inclui um processo estruturado de avaliação de risco no qual as equipes identificam todas as partes interessadas relevantes, consideram os impactos de segunda e terceira ordem que podem ocorrer inadvertidamente e desenvolvem planos de mitigação.

Dada a natureza sociotécnica de muitas dessas questões, também é importante integrar especialistas da RAI em esforços inerentemente de alto risco para ajudar nesse processo. As equipes também precisam de novas tecnologias, ferramentas e estruturas para acelerar seu trabalho e, ao mesmo pace, permitir que implementem soluções com responsabilidade. Isso inclui kits de ferramentas de instrument, manuais para desenvolvimento responsável e modelos de documentação para permitir auditoria e transparência.

Liderando com RAI de cima

Os líderes de negócios devem estar preparados para comunicar seu compromisso e processos RAI interna e externamente. Por exemplo, desenvolver um código de conduta de IA que vá além dos princípios de alto nível para articular sua abordagem à IA responsável.

Além de evitar danos inadvertidos aos clientes e, mais amplamente, à sociedade em geral, a RAI pode ser uma verdadeira fonte de valor para as empresas. Líderes de IA responsáveis relatório maior retenção de clientes, diferenciação de mercado, inovação acelerada e melhor recrutamento e retenção de funcionários. A comunicação externa sobre os esforços de RAI de uma empresa ajuda a criar a transparência necessária para elevar a confiança do cliente e obter esses benefícios.

LLMs são ferramentas poderosas que são preparado para criar um impacto comercial incrível. Infelizmente, eles também trazem riscos reais que precisam ser identificados e gerenciados. Com os passos certos, os líderes corporativos podem equilibrar os benefícios e os riscos para proporcionar um impacto transformador, minimizando os riscos para clientes, funcionários e sociedade. Não devemos deixar que a discussão em torno da IA ​​consciente, no entanto, se torne uma distração que nos impeça de nos concentrarmos nessas questões importantes e atuais.

Steven Turbines é diretor de ética em IA e Abhishek Gupta é líder e especialista sênior responsável em IA no BCG.

Tomadores de decisão de dados

Bem-vindo à comunidade VentureBeat!

DataDecisionMakers é onde especialistas, incluindo o pessoal técnico que trabalha com dados, podem compartilhar insights e inovações relacionadas a dados.

Se você quiser ler sobre ideias de ponta e informações atualizadas, práticas recomendadas e o futuro dos dados e da tecnologia de dados, junte-se a nós no DataDecisionMakers.

Você pode até considerar contribuir com um artigo seu!

Leia mais sobre DataDecisionMakers



[ad_2]

Fonte da Notícia: venturebeat.com

Publicidade

Osmar Queiroz

Osmar é um editor especializado em tecnologia, com anos de experiência em comunicação digital e produção de conteúdo voltado para inovação, ciência e tecnologia.

Artigos relacionados

Botão Voltar ao topo