TECNOLOGIA

Como as empresas podem evitar armadilhas éticas ao criar produtos de IA

Como as empresas podem evitar armadilhas éticas ao criar produtos de IA

[ad_1]

Estamos empolgados em trazer o Grow to be 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!




Em todos os setores, as empresas estão expandindo o uso de sistemas de inteligência synthetic (IA). A IA não é mais apenas para gigantes da tecnologia como Meta e Google; as empresas de logística utilizam a IA para agilizar as operações, os anunciantes usam a IA para atingir mercados específicos e até mesmo seu banco online united states of america a IA para potencializar sua experiência automatizada de atendimento ao cliente. Para essas empresas, lidar com riscos éticos e desafios operacionais relacionados à IA é inevitável – mas como devem se preparar para enfrentá-los?

Produtos de IA mal executados podem violar a privacidade particular person e, no extremo, até enfraquecer nossos sistemas sociais e políticos. Nos EUA, um algoritmo usado para prever a probabilidade de crimes futuros revelou ser tendencioso contra os negros americanos, reforçando práticas discriminatórias raciais no sistema de justiça legal.

Para evitar armadilhas éticas perigosas, qualquer empresa que pretenda lançar seus próprios produtos de IA deve integrar suas equipes de ciência de dados com líderes de negócios treinados para pensar amplamente sobre as maneiras como esses produtos interagem com os negócios e a missão maiores. No futuro, as empresas devem abordar a ética da IA ​​como uma questão estratégica de negócios no centro de um projeto – não como uma reflexão tardia.

Ao avaliar os diferentes desafios éticos, logísticos e legais em torno da IA, geralmente ajuda a dividir o ciclo de vida de um produto em três fases: pré-implantação, lançamento inicial e monitoramento pós-implantação.

Pré-implantação

Na fase de pré-implantação, a pergunta mais a very powerful a ser feita é: precisamos de IA para resolver esse problema? Mesmo no mundo de “big-data” de hoje, uma solução sem IA pode ser a opção muito mais eficaz e barata a longo prazo.

Se uma solução de IA for a melhor escolha, a pré-implantação é a hora de pensar na aquisição de dados. A IA é tão boa quanto os conjuntos de dados usados ​​para treiná-la. Como obteremos nossos dados? Os dados serão obtidos diretamente dos clientes ou de terceiros? Como garantimos que foi obtido de forma ética?

Embora seja tentador evitar essas questões, a equipe de negócios deve considerar se o processo de aquisição de dados permite o consentimento informado ou viola as expectativas razoáveis ​​de privacidade dos usuários. As decisões da equipe podem fazer ou destruir a reputação de uma empresa. Caso em questão: quando o aplicativo Ever foi encontrado coletando dados sem informar adequadamente os usuários, a FTC forçou-os a deletar seus algoritmos e dados.

O consentimento informado e a privacidade também estão interligados com as obrigações legais de uma empresa. Como devemos responder se a aplicação da lei nacional solicitar acesso a dados confidenciais de usuários? E se for a aplicação da lei internacional? Algumas empresas, como Apple e Meta, projetam deliberadamente seus sistemas com criptografia para que a empresa não possa acessar dados ou mensagens privadas de um usuário. Outras empresas projetam cuidadosamente seu processo de aquisição de dados para que nunca tenham dados confidenciais em primeiro lugar.

Além do consentimento informado, como garantiremos que os dados adquiridos sejam adequadamente representativos dos usuários-alvo? Dados que sub-representam populações marginalizadas podem gerar sistemas de IA que perpetuam o viés sistêmico. Por exemplo, a tecnologia de reconhecimento facial tem mostrado regularmente preconceitos ao longo das linhas de raça e gênero, principalmente porque os dados usados ​​para criar essa tecnologia não são adequadamente diversos.

Lançamento inicial

Existem duas tarefas cruciais na próxima fase do ciclo de vida de um produto de IA. Primeiro, avalie se há uma lacuna entre o que o produto pretende fazer e o que ele realmente está fazendo. Se o desempenho actual não corresponder às suas expectativas, descubra o porquê. Se os dados iniciais de treinamento foram insuficientes ou houve uma grande falha na implementação, você tem a oportunidade de identificar e resolver problemas imediatos. Em segundo lugar, avalie como o sistema de IA se integra ao negócio maior. Esses sistemas não existem no vácuo – a implantação de um novo sistema pode afetar o fluxo de trabalho interno dos funcionários atuais ou afastar a demanda externa de determinados produtos ou serviços. Entenda como seu produto afeta seus negócios no cenário geral e esteja preparado: se um problema sério for encontrado, pode ser necessário reverter, reduzir ou reconfigurar o produto de IA.

Monitoramento pós-implantação

O monitoramento pós-implantação é basic para o sucesso do produto, mas muitas vezes esquecido. Na última fase, deve haver uma equipe dedicada para rastrear produtos de IA após a implantação. Afinal, nenhum produto – IA ou outro – funciona perfeitamente para sempre sem ajustes. Essa equipe pode realizar periodicamente uma auditoria de viés, reavaliar a confiabilidade dos dados ou simplesmente atualizar dados “obsoletos”. Eles podem implementar mudanças operacionais, como adquirir mais dados para contabilizar grupos sub-representados ou retreinar modelos correspondentes.

Mais importante, lembre-se: os dados informam, mas nem sempre explicam toda a história. A análise quantitativa e o rastreamento de desempenho de sistemas de IA não capturam os aspectos emocionais da experiência do usuário. Portanto, as equipes pós-implantação também devem mergulhar em pesquisas mais qualitativas e centradas no ser humano. Em vez dos cientistas de dados da equipe, procure membros da equipe com experiência diversificada para realizar pesquisas qualitativas eficazes. Considere aqueles com experiência em artes liberais e negócios para ajudar a descobrir os “desconhecidos desconhecidos” entre os usuários e garantir a responsabilidade interna.

Por fim, considere o fim da vida útil dos dados do produto. Devemos excluir dados antigos ou reaproveitá-los para projetos alternativos? Se for reaproveitado, precisamos informar os usuários? Embora a abundância de armazenamento de dados barato nos tente a simplesmente armazenar todos os dados antigos e evitar esses problemas, manter dados confidenciais aumenta o risco da empresa de uma possível violação de segurança ou vazamento de dados. Uma consideração adicional é se os países estabeleceram um direito de ser esquecido.

Do ponto de vista estratégico de negócios, as empresas precisarão equipar suas equipes de produtos de IA com líderes empresariais responsáveis ​​que possam avaliar o impacto da tecnologia e evitar armadilhas éticas antes, durante e após o lançamento de um produto. Independentemente do setor, esses membros de equipe qualificados serão a base para ajudar uma empresa a enfrentar os inevitáveis ​​desafios éticos e logísticos da IA.

Vishal Gupta é professor associado de ciências de dados e operações na College of Southern California Marshall College of Trade.

Tomadores de decisão de dados

Bem-vindo à comunidade VentureBeat!

DataDecisionMakers é onde especialistas, incluindo o pessoal técnico que trabalha com dados, podem compartilhar insights e inovações relacionadas a dados.

Se você quiser ler sobre ideias de ponta e informações atualizadas, práticas recomendadas e o futuro dos dados e da tecnologia de dados, junte-se a nós no DataDecisionMakers.

Você pode até considerar contribuir com um artigo seu!

Leia mais sobre DataDecisionMakers

[ad_2]

Fonte da Notícia: venturebeat.com

Artigos relacionados

Botão Voltar ao topo