A linguagem é importante ao pesquisar pessoas controversas no Google
[ad_1]
Um dos recursos úteis de mecanismos de pesquisa como o Google é a função de preenchimento automático que permite aos usuários encontrar respostas rápidas para suas perguntas ou consultas. No entanto, as funções de busca de autocompletar são baseadas em algoritmos ambíguos que têm sido amplamente criticados porque geralmente fornecem resultados tendenciosos e racistas.
A ambiguidade desses algoritmos decorre do fato de que a maioria de nós sabe muito pouco sobre eles – o que levou alguns a se referirem a eles como “caixas pretas.” Os mecanismos de pesquisa e as plataformas de mídia social não oferecem informações ou detalhes significativos sobre a natureza dos algoritmos que empregam. Como usuários, temos o direito de conhecer os critérios usados para produzir resultados de pesquisa e como eles são personalizados para usuários individuais, incluindo como as pessoas são rotuladas pelos algoritmos do mecanismo de pesquisa do Google.
Para isso, podemos usar um processo de engenharia reversa, realizando várias pesquisas on-line em uma plataforma específica para entender melhor as regras que estão em vigor. Por exemplo, a hashtag #fentanyl pode ser pesquisada e usada no Twitter, mas não é permitida no Instagramindicando o tipo de regras que estão disponíveis em cada plataforma.
Informações automatizadas
Ao pesquisar celebridades usando o Google, geralmente há uma legenda breve e uma imagem em miniatura associada à pessoa que é gerada automaticamente pelo Google.
Nossa pesquisa recente mostrou como O mecanismo de busca do Google normaliza os teóricos da conspiração, figuras de ódio e outras pessoas controversas, oferecendo legendas neutras e às vezes positivas. Usamos redes privadas virtuais (VPNs) para ocultar nossas localizações e nossos históricos de navegação para garantir que os resultados da pesquisa não fossem baseados em nossa localização geográfica ou históricos de pesquisa.
Descobrimos, por exemplo, que Alex Jones, “o teórico da conspiração mais prolífico na América contemporânea”, é definido como um “apresentador de rádio americano”, enquanto David Icke, que também é conhecido por espalhar conspirações, é descrito como um “ex-jogador de futebol”. Esses termos são considerados pelo Google como as características definidoras desses indivíduos e podem enganar o público.
Descritores dinâmicos
No curto espaço de pace desde que nossa pesquisa foi realizada no outono de 2021, os resultados da pesquisa parecem ter mudado.
Descobri que algumas das legendas que identificamos originalmente foram modificadas, removidas ou substituídas. Por exemplo, o terrorista norueguês Anders Breivik foi subtitulado “criminoso condenado”, mas agora não há nenhum rótulo associado a ele.
Fé Goldy, o nacionalista branco canadense de extrema direita que foi banido do Fb por espalhar discurso de ódio, não tinha legenda. Agora, no entanto, sua nova legenda no Google é “comentarista canadense”.
Não há indicação do que um comentarista sugere. A mesma observação é encontrada em relação a O supremacista branco americano Richard B. Spencer. Spencer não tinha uma gravadora há alguns meses, mas agora é um “editor americano”, o que certamente não caracteriza seu legado.
Outra mudança diz respeito a Lauren Southern, um membro canadense de extrema-direitaque foi rotulado como um “ativista canadense”, um termo um tanto positivo, mas agora é descrito como um “autor canadense”.
As mudanças aparentemente aleatórias nas legendas mostram que a programação das caixas pretas algorítmicas não é estática, mas muda com base em vários indicadores que ainda são desconhecidos para nós.
Pesquisando em árabe x inglês
Uma segunda descoberta importante de nossa pesquisa está relacionada às diferenças nos resultados das legendas com base na pesquisa do idioma selecionado. Ecu falo e leio árabe, então mudei a configuração de idioma e procurei as mesmas figuras para entender como elas são descritas em árabe.
Para minha surpresa, encontrei várias diferenças importantes entre o inglês e o árabe. Mais uma vez, não houve nada de negativo na descrição de algumas das figuras que procurei. Alex Jones se torna um “apresentador de TV de communicate presentations” e Lauren Southern é erroneamente descrita como uma “política”.
E há muito mais nas buscas em língua árabe: Religion Goldy se torna uma “especialista”, David Icke se transforma de “ex-jogador de futebol” em “autor” e Jake Angeli, o “QAnon xamã” torna-se “ator” em árabe e “ativista americano” em inglês.
Richard B. Spencer torna-se um “editor” e Dan Bongino, um conspirador banido permanentemente do YouTube, transforma-se de “apresentador de rádio americano” em inglês para “político” em árabe. Interessantemente, a figura de extrema direita, Tommy Robinson, é descrito como um “ativista político britânico-inglês” em inglês, mas não tem legenda em árabe.
Rótulos enganosos
O que podemos inferir dessas diferenças de linguagem é que esses descritores são insuficientes, pois condensam a descrição de uma pessoa em uma ou poucas palavras que podem ser enganosas.
Compreender como os algoritmos funcionam é importante, especialmente porque a desinformação e a desconfiança estão aumentando e as teorias da conspiração ainda estão se espalhando rapidamente. Também precisamos de mais informações sobre como o Google e outros mecanismos de pesquisa funcionam – é importante responsabilizar essas empresas por seus algoritmos tendenciosos e ambíguos.
Este artigo de Ahmed Al-RawiProfessor Assistente, Notícias, Mídias Sociais e Comunicação Pública, Universidade Simon Fraseré republicado de A conversa sob uma licença Inventive Commons. Leia o artigo unique.
[ad_2]
Fonte da Notícia