TECNOLOGIA

Por que a IA transparente, interpretável e imparcial é mais a very powerful do que nunca (VB Reside)

Publicidade

[ad_1]

Apresentado por Outlined.ai


O que significa construir uma IA responsável e ética? Quais políticas governamentais moldarão o futuro da IA? Junte-se a Melvin Greer da Intel, Noelle Silver da IBM e Daniela Braga da Outlined.ai enquanto eles discutem como podemos garantir que nosso futuro de IA seja apenas um, neste evento VB Reside.

Registre-se aqui gratuitamente.


Os casos de uso de inteligência synthetic estão se proliferando, desde os muitos aplicativos de negócios até cada vez mais facetas da vida cotidiana. E à medida que a conscientização sobre a IA se torna mais proeminente, as preocupações justificáveis ​​sobre a justiça e o poder dos algoritmos de aprendizado de máquina e os efeitos da IA ​​na privacidade, fala e autonomia estão crescendo. No setor privado, as empresas devem lidar com a forma de desenvolver e implantar a IA ética, enquanto na esfera pública, as políticas governamentais estão sendo elaboradas para garantir o uso seguro e justo da IA.

Publicidade

Como é a IA responsável e ética? “Ético” é um termo subjetivo, diz Noelle Silver, Spouse, AI and Analytics da IBM, enquanto responsabilidade, ou ser responsável por suas escolhas, é essencialmente fazer a coisa certa quando se trata de implementar device.

“É menos sobre o que você percebe como certo ou errado, e mais sobre como você será responsabilizado pelos resultados das coisas que você constrói”, diz Silver. “Sinto que todas as empresas podem se mover nessa direção, independentemente de onde estejam no espectro da ética em sua IA.”

Ser responsável pelos resultados é importante, concorda Melvin Greer, Intel Fellow e Cientista de Dados Chefe das Américas, mas ele ressalta que não se trata de saber se o sistema é parcial ou justo, mas sim se ele faz o que é reivindicado. A importância da transparência em conjuntos de dados e avaliação de testes não pode ser exagerada. Como parte disso, o foco geralmente está nos fatores humanos, como técnicas de design participativo, abordagens de codificação multi-estado e métodos de teste humano no circuito, em vez do quadro geral.

“Nada disso é realmente uma panacéia contra o preconceito que faz parte de uma perspectiva sociotécnica mais ampla que conecta esses sistemas de IA aos valores sociais”, diz Greer. “E acho que é aqui que os especialistas na área de IA responsável realmente querem se concentrar para gerenciar com sucesso os riscos de viés de IA, para que criemos não apenas um sistema que está fazendo algo que é reivindicado, mas fazendo algo no contexto de uma perspectiva mais ampla que reconheça as normas e an ethical da sociedade”.

Ele continua a explicar as amplas consequências de não ter as proteções necessárias, mesmo que não intencionais.

Como Greer explica: “Pode decidir onde vamos estudar, com quem nos casaremos, se conseguirmos emprego, onde vamos morar, que assistência médica teremos, que acesso à comida teremos, que acesso ao capital nós teremos. Os riscos são altos e exigem uma avaliação séria da maneira como os implementamos.”

O imperativo para guardrails éticos

Infelizmente, muitos dos cientistas de dados e especialistas em unidades de negócios que estão em posição de projetar, construir e implementar modelos ou algoritmos de aprendizado de máquina não são especialistas em ética. Eles geralmente não estudam ética na escola, nem têm a oportunidade de aprender sobre o conceito de questionamento no design de produtos. Eles não sabem quais perguntas fazer ou não conseguem identificar pelo que podem ser responsabilizados em termos de desempenho ou intenção de seus modelos e dos dados que estão sendo usados ​​para treiná-los, diz Silver. E os funcionários mais baixos na hierarquia empresarial tendem a presumir que essas questões éticas estão acima de seu nível salarial.

“Com todas as linhas de negócios agora aproveitando a IA, precisamos assumir a responsabilidade de entender e encontrar uma defesa de por que estamos usando essa tecnologia e qual é o escopo desse uso e como estamos coletando os dados que criam essas previsões. ,” ela diz.

Greer também aponta que todos os humanos desenvolveram sua própria ideia do que é ético ou não ético. E se eles estão construindo sistemas de IA, eles estão imbuindo sua própria visão de ética e comportamento ético no sistema – que pode ou não ter um alinhamento com práticas sociais ou valores sociais que queremos propagar.

É basic começar a atrair mais pessoas das ciências sociais, diz Silver, e é basic que os cientistas de dados comecem a pensar sobre a dinâmica humana no relacionamento com a IA, para que você não acabe construindo algo que prejudique uma pessoa.

“Esse é, em última análise, o maior fracasso, construir uma IA que infrinja os direitos de alguém, prejudica a capacidade de alguém de fazer algo que teria o direito de fazer, mas seus modelos de IA inadvertidamente decidiram contra isso”, diz ela. “Isso é algo com o qual a maioria das empresas está lutando, como fazer isso bem.”

Implementação de IA responsável e ética

Para começar no caminho da IA ​​ética, uma organização precisa de um manifesto de IA, diz Silver. E os líderes precisam entender o que significa ser um negócio orientado por dados e, em seguida, definir a intenção de construí-lo com responsabilidade. Quando você cria uma solução de IA, ela precisa incluir transparência e interpretabilidade dos modelos, de modo que alguém que não seja necessariamente o cientista de dados possa entender como os modelos funcionam.

Um foco na privacidade também é essencial, especialmente ao construir os conjuntos de dados corretos. É caro fazer isso com responsabilidade, diz Silver, e é caro garantir que todos os participantes sejam representados, ou pelo menos observados com empatia, em seus dados de treinamento. É onde muitas organizações lutam – mas vale a pena, pois garante que o device seja justo e equitativo e evita possíveis contratempos ou até mesmo catástrofes da empresa, enfatiza Silver. A IA ética também requer um ciclo de comments, para que qualquer pessoa que trabalhe nos modelos possa levantar a mão para sinalizar quaisquer problemas ou preocupações.

Há também a necessidade de expandir além do aprendizado de máquina e dos recursos técnicos de transparência e responsabilidade para remover preconceitos e detalhar como os sistemas estão sendo criados e que impacto eles terão na sociedade, mesmo quando na superfície. eles são bons no que fazem. Por exemplo, o uso de algoritmos para prevenção e previsão de crimes tem sido relativamente bem-sucedido em ajudar a aplicação da lei, ao mesmo pace em que teve um impacto negativo desproporcional em algumas comunidades da sociedade devido à maneira como esses algoritmos são implementados.

“Embora, como cientista de dados, possa dizer que sou otimista em relação à IA e às perspectivas de usá-la para o bem, o fato é que, por ser tão focada e capaz de se espalhar por nossa sociedade mais ampla, quando não funciona o do jeito que queremos, a escala do dano e a velocidade com que pode ser perpetuado em toda a sociedade são muito vastas e muito impactantes”, adverte Greer.

Para saber mais sobre como a IA está sendo usada para o bem, como fazer parte dos esforços mais amplos em direção à IA responsável e ética e onde esses esforços estão liderando empresas, organizações e a sociedade em geral, não perca este evento VB Reside.


Não perca!

Registre-se gratuitamente aqui.


Os participantes aprenderão:

  • Como manter o preconceito fora dos dados para garantir uma IA justa e ética
  • Como a IA interpretável ajuda na transparência e reduz a responsabilidade dos negócios
  • Como a regulamentação governamental iminente mudará a forma como projetamos e implementamos a IA
  • Como a adoção antecipada de práticas éticas de IA ajudará você a se antecipar a problemas e custos de conformidade

Caixas de som:

  • Noelle SilverParceiro, IA e Analytics, IBM
  • Melvin GreerIntel Fellow e Cientista-Chefe de Dados, Américas
  • Daniela BragaFundador e CEO, Outlined.ai
  • Chris J. PreimesbergerModerador, VentureBeat

[ad_2]

Fonte da Notícia

Publicidade

Osmar Queiroz

Osmar é um editor especializado em tecnologia, com anos de experiência em comunicação digital e produção de conteúdo voltado para inovação, ciência e tecnologia.

Artigos relacionados

Botão Voltar ao topo