TECNOLOGIA

Como a IA será usada eticamente no futuro? O AI Duty Lab tem um plano

Publicidade

[ad_1]

Estamos empolgados em trazer o Change into 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!


À medida que o uso da IA ​​em todos os setores e em quase todos os aspectos da sociedade cresce, há uma necessidade cada vez mais óbvia de ter controles em vigor para IA responsável .

A IA responsável é garantir que a IA seja usada de uma maneira que não seja antiética, que ajude a respeitar a privacidade pessoal e que também evite preconceitos. Há um fluxo aparentemente interminável de empresas, tecnologias e pesquisadores problemas associados à IA responsável. Agora, o AI Duty Labs (AIRL) está entrando na briga, anunciando US$ 2 milhões em financiamento pré-seed, juntamente com um lançamento prévio da plataforma de instrument como serviço (SaaS) Challenge Keep watch over da empresa.

O líder da AIRL é o CEO da empresa, Ramsay Brown, que foi treinado como neurocientista computacional na Universidade do Sul da Califórnia, onde passou muito pace trabalhando no mapeamento do cérebro humano. Sua primeira startup foi originalmente conhecida como Dopamine Labs, renomeada como Boundless Thoughts, com foco em engenharia comportamental e como usar o aprendizado de máquina para fazer previsões sobre como as pessoas vão se comportar. Mente sem limites foi adquirida pela Thrive World em 2019.

Publicidade

Na AIRL, Brown e sua equipe estão abordando as questões de segurança da IA, garantindo que a IA seja usada com responsabilidade de uma maneira que não prejudique a sociedade ou as organizações que estão usando a tecnologia.

“Fundamos a empresa e construímos a plataforma de instrument para o Challenge Keep watch over para começar ajudando as equipes de ciência de dados a fazer seu trabalho melhor, com mais precisão e rapidez”, disse Brown. “Quando analisamos a comunidade de IA responsável, há algumas pessoas trabalhando em governança e conformidade, mas não estão conversando com equipes de ciência de dados e descobrindo o que realmente prejudica”.

O que as equipes de ciência de dados precisam para criar IA responsável

Brown afirmou enfaticamente que nenhuma organização provavelmente se propõe a construir uma IA que seja propositalmente tendenciosa e que use dados de maneira antiética.

Em vez disso, o que normalmente ocorre em um desenvolvimento complexo com muitas peças em movimento e pessoas diferentes é o uso involuntário de dados ou modelos de aprendizado de máquina treinados em dados incompletos. Quando Brown e sua equipe perguntaram aos cientistas de dados o que estava faltando e o que prejudicou os esforços de desenvolvimento, os entrevistados disseram a ele que estavam procurando instrument de gerenciamento de projetos mais do que uma estrutura de conformidade.

“Esse foi o nosso grande momento ‘a-ha'”, disse ele. “O que as equipes realmente perderam não foi que elas não entendessem os regulamentos, é que elas não sabiam o que suas equipes estavam fazendo.”

Brown observou que há duas décadas a engenharia de instrument foi revolucionada com o desenvolvimento de ferramentas de painel como Jira da Atlassian, que ajudou os desenvolvedores a criar instrument mais rapidamente. Agora, sua esperança é que o Controle de Missão da AIRL seja o painel em ciência de dados para ajudar as equipes de dados a construir tecnologias com práticas de IA responsáveis.

Trabalhar com estruturas de IA e MLops existentes

Existem várias ferramentas que as organizações podem usar hoje para ajudar a gerenciar fluxos de trabalho de IA e aprendizado de máquina, às vezes agrupados na categoria de MLops do setor.

Tecnologias populares incluem AWS Sagemaker, Google Vertex AI, Laboratório de dados dominó e BigPanda.

Brown disse que uma das coisas que sua empresa aprendeu ao construir seu serviço Challenge Keep watch over é que as equipes de ciência de dados têm muitas ferramentas diferentes que preferem usar. Ele disse que o AIRL não pretende competir com MLops e ferramentas de IA existentes, mas sim fornecer uma sobreposição para o uso responsável da IA. O que o AIRL fez foi desenvolver um endpoint de API aberto para que uma equipe usando o Challenge Keep watch over possa canalizar quaisquer dados de qualquer plataforma e fazer com que eles terminem como parte dos processos de monitoramento.

O Challenge Keep watch over da AIRL fornece uma estrutura para que as equipes usem o que estão fazendo em abordagens advert hoc e criem processos padronizados para aprendizado de máquina e operações de IA.

Brown disse que o Challenge Keep watch over permite que os usuários peguem notebooks de ciência de dados e os transformem em processos e fluxos de trabalho repetíveis que funcionam dentro de parâmetros configurados para uso responsável de IA. Nesse modelo, os dados são conectados a um sistema de monitoramento que pode alertar uma organização se houver uma violação de políticas. Por exemplo, ele observou que, se um cientista de dados u.s. um conjunto de dados que não é permitido pela política para ser usado em uma determinada operação de aprendizado de máquina, o Challenge Keep watch over pode detectar isso automaticamente, sinalizar para os gerentes e pausar o fluxo de trabalho.

“Essa centralização de informações cria melhor coordenação e visibilidade”, disse Brown. “Isso também reduz a probabilidade de que sistemas com resultados realmente deformados e indesejáveis ​​acabem em produção.”

Olhando para 2027 e o futuro da IA ​​responsável

Olhando para 2027, AIRL tem um plano de roteiro para ajudar com preocupações mais avançadas sobre o uso de IA e o potencial de Inteligência Synthetic Geral (AGI). O foco da empresa em 2027 é viabilizar um esforço que chama de Protocolo de Incentivo ao Trabalho Sintético (SLIP). A ideia básica é ter alguma forma de contrato inteligente para usar mão de obra movida a AGI na economia.

“Estamos olhando para o advento da inteligência synthetic geral, como uma preocupação de negócios logísticos e da sociedade que precisa ser discutida não em termos de ficção científica, mas em termos práticos de gerenciamento de incentivos”, disse Brown.

A missão do VentureBeat é ser uma praça virtual para os tomadores de decisões técnicas adquirirem conhecimento sobre tecnologia empresarial transformadora e realizarem transações. Aprender mais sobre a associação.

[ad_2]

Fonte da Notícia

Publicidade

Osmar Queiroz

Osmar é um editor especializado em tecnologia, com anos de experiência em comunicação digital e produção de conteúdo voltado para inovação, ciência e tecnologia.

Artigos relacionados

Botão Voltar ao topo
HexTec News