TECNOLOGIA

Construindo IA responsável: 5 pilares para um futuro ético

Construindo IA responsável: 5 pilares para um futuro ético

[ad_1]

Estamos empolgados em trazer o Become 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!


Desde que houve progresso tecnológico, houve preocupações sobre suas implicações. O Projeto Long island, quando cientistas lutaram com seu papel em desencadear uma energia nuclear tão inovadora, mas destrutiva, é um excelente exemplo. Lord Solomon “Solly” Zuckerman foi conselheiro científico dos Aliados durante a Segunda Guerra Mundial e, posteriormente, um proeminente defensor da não proliferação nuclear. Ele foi citado na década de 1960 com um perception presciente que ainda soa verdadeiro hoje: “A ciência cria o futuro sem saber qual será o futuro”.

Inteligência synthetic (IA), agora um termo abrangente para qualquer device de aprendizado de máquina (ML) projetado para executar tarefas complexas que normalmente exigem inteligência humana, está destinado a desempenhar um papel descomunal em nossa sociedade futura. Sua recente proliferação levou a uma explosão de interesse, bem como a um maior escrutínio sobre como a IA está sendo desenvolvida e quem está fazendo o desenvolvimento, lançando uma luz sobre como o viés afeta o design e a função. A UE está a planear nova legislação visando mitigar possíveis danos que a IA pode causar e a IA responsável será exigida por lei.

É fácil entender por que tais proteções são necessárias. Os humanos estão construindo sistemas de IA, então eles inevitavelmente trazem sua própria visão de ética para o design, muitas vezes para pior. Alguns exemplos preocupantes já surgiram – o algoritmo para a cartão Apple e recrutamento de emprego em Amazonas foram investigados quanto ao viés de gênero, e Google [subscription required] teve que reformular seu serviço de fotos após a marcação racista. Desde então, cada empresa corrigiu os problemas, mas a tecnologia está se movendo rapidamente, ressaltando a lição de que construir tecnologia awesome sem levar em conta o risco é como correr com os olhos vendados.

Construindo uma IA responsável

Melvin Greer, cientista-chefe de dados da Intel, apontou no VentureBeat que “… especialistas na área de IA responsável realmente querem se concentrar em gerenciar com sucesso os riscos de viés de IA, para que criemos não apenas um sistema que está fazendo algo que é reivindicado, mas fazendo algo no contexto de uma perspectiva mais ampla que reconheça as normas e an ethical da sociedade”.

Dito de outra forma, aqueles que projetam sistemas de IA devem ser responsáveis ​​por suas escolhas e, essencialmente, “fazer a coisa certa” quando se trata de implementar device.

Se sua empresa ou equipe está planejando construir ou incorporar um sistema de IA, aqui estão cinco pilares que devem formar sua base:

1. Responsabilidade

Você pensaria que os humanos levariam em consideração o design da IA ​​desde o início, mas, infelizmente, nem sempre é esse o caso. Engenheiros e desenvolvedores podem facilmente se perder no código. Mas a grande questão que surge quando os seres humanos são trazidos para o circuito geralmente é: “Quanta confiança você deposita no sistema de ML para começar a tomar decisões?”

O exemplo mais óbvio dessa importância são os carros autônomos, onde estamos “confiando” ao veículo para “saber” qual deve ser a decisão certa para o motorista humano. Mas mesmo em outros cenários, como decisões de empréstimo, os designers precisam considerar quais métricas de justiça e viés estão associadas ao modelo de ML. Uma boa prática inteligente a ser implementada seria criar um comitê de ética de IA em andamento para ajudar a supervisionar essas decisões políticas e incentivar auditorias e revisões para garantir que você esteja acompanhando os padrões sociais modernos.

2. Replicabilidade

A maioria das organizações utiliza dados de várias fontes (armazéns de dados, provedores de armazenamento em nuvem and so forth.), mas se esses dados não forem uniformes (ou seja, 1:1), isso poderá levar a problemas no futuro quando você estiver tentando coletar insights para resolver problemas ou atualizar funções. É importante que as empresas que desenvolvem sistemas de IA padronizem seus pipelines de ML para estabelecer catálogos de dados e modelos abrangentes. Isso ajudará a simplificar os testes e a validação, além de melhorar a capacidade de produzir painéis e visualizações precisos.

3. Transparência

Tal como acontece com a maioria das coisas, a transparência é a melhor política. Quando se trata de modelos de ML, transparência equivale a interpretabilidade (ou seja, garantir que o modelo de ML possa ser explicado). Isso é especialmente importante em setores como bancos e saúde, onde você precisa explicar e justificar aos clientes por que está construindo esses modelos específicos para garantir a justiça contra preconceitos indesejados. Ou seja, se um engenheiro não puder justificar por que um determinado recurso de ML existe para o benefício do cliente, ele não deveria estar lá. É aqui que o monitoramento e as métricas desempenham um papel importante, e é elementary ficar de olho no desempenho estatístico para garantir a eficácia a longo prazo do sistema de IA.

4. Segurança

No caso da IA, a segurança lida mais com como uma empresa deve proteger seu modelo de ML e geralmente inclui tecnologias como computação criptografada e testes contraditórios – porque um sistema de IA não pode ser responsável se for suscetível a ataques. Considere este cenário da vida actual: havia um modelo de visão computacional projetado para detectar sinais de parada, mas quando alguém colocou um pequeno adesivo no sinal de parada (nem mesmo distinguível pelo olho humano) o sistema foi enganado. Exemplos como esse podem ter enormes implicações de segurança, portanto, você deve estar constantemente vigilante com a segurança para evitar tais falhas.

5. Privacidade

Este último pilar é sempre um assunto polêmico, especialmente com tantos dos escândalos em andamento no Fb envolvendo dados de clientes. A IA coleta enormes quantidades de dados e é preciso haver diretrizes muito claras sobre para que ela está sendo usada. (Acho GDPR na Europa.) Deixando de lado as regulamentações governamentais, cada empresa que projeta a IA precisa tornar a privacidade uma preocupação primordial e generalizar seus dados para não armazenar registros individuais. Isso é especialmente importante na área da saúde ou em qualquer setor com dados confidenciais de pacientes. Para mais informações, confira tecnologias como aprendizado federado e privacidade diferencial.

IA responsável: o caminho a seguir

Mesmo depois de levar em conta esses cinco pilares, a responsabilidade na IA pode parecer muito com uma situação de pancadaria – quando você pensa que a tecnologia está operando eticamente, outra nuance surge. Isso é apenas parte do processo de doutrinar uma nova tecnologia empolgante no mundo e, semelhante à Web, provavelmente nunca pararemos de debater, mexer e melhorar a funcionalidade da IA.

Não se engane, porém; as implicações da IA ​​são enormes e terão um impacto duradouro em vários setores. Uma boa maneira de começar a se preparar agora é se concentrar na construção de uma equipe diversificada dentro de sua organização. Trazer pessoas de diferentes raças, gêneros, origens e culturas reduzirá suas possibilities de preconceito antes mesmo de você olhar para a tecnologia. Ao incluir mais pessoas no processo e praticar monitoramento contínuo, garantiremos que a IA seja mais eficiente, ética e responsável.

Dattaraj Rao é cientista-chefe de dados da Persistente.

Tomadores de decisão de dados

Bem-vindo à comunidade VentureBeat!

DataDecisionMakers é onde especialistas, incluindo o pessoal técnico que trabalha com dados, podem compartilhar insights e inovações relacionadas a dados.

Se você quiser ler sobre ideias de ponta e informações atualizadas, melhores práticas e o futuro dos dados e da tecnologia de dados, junte-se a nós no DataDecisionMakers.

Você pode até considerar contribuir com um artigo seu!

Leia mais sobre DataDecisionMakers

[ad_2]

Fonte da Notícia: venturebeat.com

Artigos relacionados

Botão Voltar ao topo