O caso do algoritmo assustador que ‘previu’ a gravidez na adolescência
[ad_1]
para ler este artigo em espanhol por want aprete aqui.
Em 2018, enquanto o Congresso argentino discutia acaloradamente se deveria descriminalizar o aborto, o Ministério da Primeira Infância da província de Salta, no norte, e a gigante de tecnologia americana Microsoft apresentaram um sistema algorítmico para prever a gravidez na adolescência. Eles a chamaram de Plataforma Tecnológica para Intervenção Social.
“Com a tecnologia, você pode prever com cinco ou seis anos de antecedência, com nome, sobrenome e endereço, qual menina – futura adolescente – está 86% predestinada a ter uma gravidez na adolescência”, Juan Manuel Urtubey, então governador da província , orgulhosamente declarado em rede nacional. O objetivo declarado technology usar o algoritmo para prever quais meninas de áreas de baixa renda engravidariam nos próximos cinco anos. Nunca ficou claro o que aconteceria quando uma menina ou jovem fosse rotulada como “predestinada” à maternidade ou como essa informação ajudaria a prevenir a gravidez na adolescência. As teorias sociais que informavam o sistema de IA, assim como seus algoritmos, eram opacas.
O sistema foi baseado em dados – incluindo idade, etnia, país de origem, deficiência e se a casa do sujeito tinha água quente no banheiro – de 200.000 moradores da cidade de Salta, incluindo 12.000 mulheres e meninas com idades entre 10 e 19. Embora não haja documentação oficial, a partir da revisão de artigos da mídia e duas revisões técnicas, sabemos que “agentes territoriais” visitaram as casas das meninas e mulheres em questão, fizeram perguntas de pesquisa, tiraram fotos e registraram localizações de GPS. O que os sujeitos a essa vigilância íntima têm em comum? Eles eram pobres, alguns eram migrantes da Bolívia e de outros países da América do Sul, e outros eram de comunidades indígenas Wichí, Qulla e Guarani.
Embora os porta-vozes da Microsoft tenham anunciado com orgulho que a tecnologia em Salta foi “um dos casos pioneiros no uso de dados de IA” em programas estatais, ela apresenta poucas novidades. Em vez disso, é uma extensão de uma longa tradição argentina: controlar a população por meio da vigilância e da força. E a reação a isso mostra como as feministas argentinas de base foram capazes de enfrentar esse mau uso da inteligência synthetic.
No dia 19 e no início do século 20, sucessivos governos argentinos realizaram um genocídio de comunidades indígenas e promoveram políticas de imigração baseadas em ideologias destinadas a atrair assentamentos europeus, tudo na esperança de blanquismo, ou “branquear” o país. Ao longo do pace, uma identidade nacional foi construída ao longo de linhas sociais, culturais e, acima de tudo, raciais.
Esse tipo de pensamento eugênico tem uma propensão a mudar de forma e se adaptar a novos paradigmas científicos e circunstâncias políticas, segundo a historiadora Marisa Miranda, que acompanha as tentativas da Argentina de controlar a população por meio da ciência e da tecnologia. Veja o caso da imigração. Ao longo da história da Argentina, a opinião oscilou entre celebrar a imigração como um meio de “melhorar” a população e considerar os imigrantes como indesejáveis e uma ameaça política a ser cuidadosamente vigiada e gerenciada.
Mais recentemente, a ditadura militar argentina entre 1976 e 1983 controlou a população por meio de violência política sistemática. Durante a ditadura, as mulheres tinham a “tarefa patriótica” de povoar o país, e a contracepção foi proibida por uma lei de 1977. A expressão mais merciless do interesse da ditadura pela maternidade foi a prática de sequestro de mulheres grávidas consideradas politicamente subversivas. A maioria das mulheres foi assassinada após o parto e muitos de seus filhos foram adotados ilegalmente pelos militares para serem criados por “famílias católicas patrióticas”.
Enquanto o sistema de IA de Salta para “prever gravidez” foi saudado como futurista, ele só pode ser entendido à luz dessa longa história, particularmente, nas palavras de Miranda, o persistente impulso eugênico que sempre “contém uma referência ao futuro” e pressupõe que a reprodução “deve ser administrado pelos poderosos”.
Devido ao completa falta de regulamentação nacional de IA, a Plataforma Tecnológica para Intervenção Social nunca foi submetida a uma revisão formal e nenhuma avaliação de seus impactos sobre meninas e mulheres foi feita. Não houve dados oficiais publicados sobre sua precisão ou resultados. Como a maioria dos sistemas de IA em todo o mundo, incluindo aqueles usados em contextos sensíveis, falta transparência e responsabilidade.
Embora não esteja claro se o programa de tecnologia foi finalmente suspenso, tudo o que sabemos sobre o sistema vem dos esforços de ativistas e jornalistas feministas que lideraram o que equivalia a uma auditoria de base de um sistema de IA falho e prejudicial. Ao ativar rapidamente uma máquina bem lubrificada de organização comunitária, esses ativistas chamaram a atenção da mídia nacional para como uma tecnologia não testada e não regulamentada estava sendo usada para violar os direitos de meninas e mulheres.
“A ideia de que os algoritmos podem prever a gravidez na adolescência antes que ela aconteça é a desculpa perfeita para ativistas anti-mulheres e anti-sexuais e de direitos reprodutivos declararem desnecessárias as leis do aborto”, escreveram as feministas Paz Peña e Joana Varon na época. De fato, brand foi revelado que uma organização sem fins lucrativos argentina chamada Fundação Conin, dirigida pelo médico Abel Albino, um oponente vocal dos direitos ao aborto, estava por trás da tecnologia, junto com a Microsoft.
.
[ad_2]
Fonte da Notícia




