A obsessão de Elon Musk por bots não fará nada para impedir o unsolicited mail do Twitter
[ad_1]
Twitter relata que menos de 5% das contas são falsas ou spammers, comumente referido como “bots”. Desde que sua oferta de compra do Twitter foi aceita, Elon Musk questionou repetidamente essas estimativas, até mesmo descartando Resposta pública do CEO Parag Agrawal.
Mais tarde, Musk colocou o negócio em espera e exigiu mais provas.
Então, por que as pessoas estão discutindo sobre a porcentagem de contas de bots no Twitter?
Como os criadores de Botômetrouma ferramenta de detecção de bot amplamente utilizada, nosso grupo na Universidade de Indiana Observatório de Mídias Sociais estuda contas inautênticas e manipulação nas mídias sociais há mais de uma década. Trouxemos o conceito de “bot social” para o primeiro plano e primeira estimativa sua prevalência no Twitter em 2017.
Com base em nosso conhecimento e experiência, acreditamos que estimar a porcentagem de bots no Twitter se tornou uma tarefa muito difícil, e debater a precisão da estimativa pode estar perdendo o ponto. Aqui está o porquê.
O que, exatamente, é um bot?
Para medir a prevalência de contas problemáticas no Twitter, é necessária uma definição clara dos alvos. Termos comuns como “contas falsas”, “contas de unsolicited mail” e “bots” são usados de forma intercambiável, mas têm significados diferentes. Contas falsas ou falsas são aquelas que se passam por pessoas. As contas que produzem conteúdo promocional não solicitado em massa são definidas como spammers. Bots, por outro lado, são contas controladas em parte por instrument; eles podem postar conteúdo ou realizar interações simples, como retweetar, automaticamente.
Esses tipos de contas geralmente se sobrepõem. Por exemplo, você pode criar um bot que se faz passar por um humano para postar unsolicited mail automaticamente. Essa conta é simultaneamente um bot, um spammer e uma farsa. Mas nem toda conta falsa é um bot ou um spammer e vice-versa. Chegar a uma estimativa sem uma definição clara só produz resultados enganosos.
Definir e distinguir tipos de contas também pode informar intervenções adequadas. Contas falsas e de unsolicited mail degradam o ambiente on-line e violam política da plataforma. Bots maliciosos são usados para espalhar desinformação, inflar popularidade, exacerbar o conflito por meio de conteúdo negativo e inflamatório, manipular opiniões, influenciar eleições, realizar fraude financeira e interromper a comunicação. No entanto, alguns bots podem ser inofensivos ou até útilpor exemplo, ajudando a divulgar notícias, fornecendo alertas de desastres e realizando pesquisas.
Simplesmente banir todos os bots não é do interesse dos usuários de mídia social.
Para simplificar, os pesquisadores usam o termo “contas inautênticas” para se referir à coleção de contas falsas, spammers e bots maliciosos. Essa também é a definição que o Twitter parece estar usando. No entanto, não está claro o que Musk tem em mente.
Difícil de contar
Mesmo quando se chega a um consenso sobre uma definição, ainda há desafios técnicos para estimar a prevalência.
Pesquisadores externos não têm acesso aos mesmos dados que o Twitter, como endereços IP e números de telefone. Esse prejudica a capacidade do público para identificar contas inautênticas. Mas até o Twitter reconhece que o número actual de contas inautênticas pode ser maior do que o estimadoPorque detecção é um desafio.
As contas inautênticas evoluem e desenvolvem novas táticas para evitar a detecção. Por exemplo, algumas contas falsas use rostos gerados por IA como seus perfis. Esses rostos podem ser indistinguíveis dos reais, mesmo para humanos. Identificar essas contas é difícil e requer novas tecnologias.
Outra dificuldade é apresentada por contas coordenadas que parecem ser normais individualmente, mas agem de forma tão semelhante entre si que quase certamente são controlados por uma única entidade. No entanto, eles são como agulhas no palheiro de centenas de milhões de tweets diários.
Finalmente, contas inautênticas podem evitar a detecção por técnicas como troca de alças ou automaticamente postando e deletando grandes volumes de conteúdo.
A distinção entre contas inautênticas e genuínas fica cada vez mais embaçada. As contas podem ser hackeadas, comprado ou alugadoe alguns usuários “doam” suas credenciais para organizações que postam em seu nome. Como resultado, os chamados contas “ciborgue” são controlados por algoritmos e humanos. Da mesma forma, os spammers às vezes publicam conteúdo legítimo para ocultar sua atividade.
Observamos um amplo espectro de comportamentos misturando as características de bots e pessoas. Estimar a prevalência de contas inautênticas requer a aplicação de uma classificação binária simplista: conta autêntica ou inautêntica. Não importa onde a linha seja traçada, os erros são inevitáveis.
Perdendo a imagem grande
O foco do recente debate sobre a estimativa do número de bots do Twitter simplifica demais a questão e perde o objetivo de quantificar os danos do abuso e manipulação on-line por contas inautênticas.

Kaicheng Yang
Evidências recentes sugerem que contas inautênticas podem não ser os únicos culpados responsáveis pela disseminação de desinformação, discurso de ódio, polarização e radicalização. Esses problemas geralmente envolvem muitos usuários humanos. Por exemplo, nossa análise mostra que desinformação sobre o COVID-19 foi divulgada abertamente no Twitter e no Fb por verificados, contas de alto nível.Através BotAmpName, uma nova ferramenta da família Botometer que qualquer pessoa com uma conta no Twitter pode usar, descobrimos que a presença de atividade automatizada não é distribuída uniformemente. Por exemplo, a discussão sobre criptomoedas tende a mostrar mais atividade de bot do que a discussão sobre gatos. Portanto, se a prevalência geral é de 5% ou 20% faz pouca diferença para usuários individuais; suas experiências com esses relatos dependem de quem eles seguem e dos tópicos com os quais se preocupam.
Mesmo que fosse possível estimar com precisão a prevalência de contas inautênticas, isso faria pouco para resolver esses problemas. Um primeiro passo significativo seria reconhecer a natureza complexa dessas questões. Isso ajudará as plataformas de mídia social e os formuladores de políticas a desenvolver respostas significativas.![]()
Artigo de Kai-Cheng YangDoutoranda em Informática, Universidade de Indiana e Filippo MenczerProfessor de Informática e Ciência da Computação, Universidade de Indiana
Este artigo é republicado de A conversa sob uma licença Inventive Commons. Leia o artigo unique.
[ad_2]
Fonte da Notícia

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2022/n/O/5B0eWKTBaqCEuuMjbfJQ/deepfake-mark-zuckerberg.jpg)
