A IA tem um problema perigoso de viés – veja como gerenciá-lo
[ad_1]
IA agora orienta inúmeras decisões de mudança de vida, desde avaliação de pedidos de empréstimo para determinando penas de prisão.
Os defensores da abordagem argumentam que ela pode eliminar os preconceitos humanos, mas os críticos alertam que algoritmos pode amplificar nossos preconceitos – sem nem mesmo revelar como eles chegaram à decisão.
Isso pode resultar em sistemas de IA levando a Negros sendo presos injustamenteou serviços infantis visando injustamente famílias pobres. As vítimas são frequentemente de grupos que já são marginalizados.
Alejandro Saucedo, cientista-chefe da O Instituto de IA Ética e Diretor de Engenharia na startup ML Seldon, alerta as organizações para pensarem com cuidado antes de implantar algoritmos. Ele contou ao TNW suas dicas para mitigar os riscos.
Explicabilidade
Aprendizado de máquina sistemas precisam fornecer transparência. Isso pode ser um desafio ao usar modelos poderosos de IA, cujas entradas, operações e resultados não são óbvios para os humanos.
A explicabilidade tem sido apontada como uma solução há anos, mas as abordagens eficazes permanecem indefinidas.
“As próprias ferramentas de explicabilidade do aprendizado de máquina podem ser tendenciosas”, diz Saucedo. “Se você não estiver usando a ferramenta relevante ou se estiver usando uma ferramenta específica de forma incorreta ou inadequada, você está recebendo explicações incorretas. É o paradigma de device same old de lixo dentro, lixo fora.”
Embora não haja bala de prata, a supervisão e o monitoramento humanos podem reduzir os riscos.
Saucedo recomenda identificar os processos e pontos de contato que exigem um humano no circuito. Isso envolve interrogar os dados subjacentes, o modelo usado e quaisquer vieses que surjam durante a implantação.
O objetivo é identificar os pontos de contato que exigem supervisão humana em cada estágio do ciclo de vida do aprendizado de máquina.
Idealmente, isso garantirá que o sistema escolhido seja adequado à finalidade e relevante para o caso de uso.

Especialistas de domínio também podem usar explicadores de aprendizado de máquina para avaliar a previsão do modelo, mas é imperativo que eles avaliem primeiro a adequação do sistema.
“Quando digo especialistas de domínio, nem sempre me refiro a cientistas de dados técnicos”, diz Saucedo. “Eles podem ser especialistas do setor, especialistas em políticas ou outros indivíduos com experiência no desafio que está sendo enfrentado.”
Responsabilidade
O nível de intervenção humana deve ser proporcional aos riscos. Um algoritmo que recomenda músicas, por exemplo, não exigirá tanta supervisão quanto um que dita as condições de fiança.
Em muitos casos, um sistema avançado só aumentará os riscos. Modelos de aprendizado profundo, por exemplo, podem adicionar uma camada de complexidade que causa mais problemas do que unravel.
“Se você não consegue entender as ambiguidades de uma ferramenta que está introduzindo, mas entende que os riscos têm altos riscos, isso significa que é um risco que não deve ser assumido”, diz Saucedo.
Os operadores de sistemas de IA também devem justificar o processo organizacional em torno dos modelos que introduzem.
Isso requer uma avaliação de toda a cadeia de eventos que leva a uma decisão, desde a aquisição de dados até o resultado ultimate.
Você precisa de uma estrutura de responsabilidade
“Há uma necessidade de garantir a prestação de contas em cada etapa”, diz Saucedo. “É importante garantir que haja práticas recomendadas não apenas no estágio de explicabilidade, mas também no que acontece quando algo dá errado.”
Isso inclui fornecer meios para analisar o caminho para o resultado, dados sobre quais especialistas de domínio estiveram envolvidos e informações sobre o processo de aprovação.
“Você precisa de uma estrutura de responsabilidade por meio de uma infraestrutura robusta e um processo robusto que envolva especialistas de domínio relevantes para o risco envolvido em todas as etapas do ciclo de vida.”
Segurança
Quando os sistemas de IA dão errado, a empresa que os implantou também pode sofrer as consequências.
Isso pode ser particularmente prejudicial ao usar dados confidenciais, que os maus atores podem roubar ou manipular.
“Se os artefatos são explorados, eles podem ser injetados com código malicioso”, diz Saucedo. “Isso significa que quando eles estão rodando em produção, eles podem extrair segredos ou compartilhar variáveis de ambiente.”
A cadeia de suprimentos de device adiciona mais perigos.
As organizações que usam ferramentas comuns de ciência de dados, como TensorFlow e PyTorch, introduzem dependências extras, o que pode aumentar os riscos.
Uma atualização pode causar a quebra de um sistema de aprendizado de máquina e os invasores podem injetar malware no nível da cadeia de suprimentos.
As consequências podem exacerbar os preconceitos existentes e causar falhas catastróficas.
Saucedo volta a recomendar a aplicação das melhores práticas e intervenção humana para mitigar os riscos.
Um sistema de IA pode prometer melhores resultados do que os humanos, mas sem a supervisão deles, os resultados podem ser desastrosos.
Você sabia que Alejandro Saucedo, Diretor de Engenharia da Seldon e Cientista Chefe do Institute for Moral AI & Gadget Finding out, falará na Conferência TNW em 16 de junho? Confira a lista completa de palestrantes aqui.
[ad_2]
Fonte da Notícia




