É terrivelmente fácil para os repórteres explorarem os algoritmos de notícias do Google
[ad_1]
Passei os últimos oito meses transformando o Google Notícias em meu playground pessoal. Ecu manipulei o algoritmo e fiz com que minhas histórias fossem relevantes para tópicos específicos ou não. Isto é um grande problema.
Sou um repórter common — um escritor. Não tenho habilidades de programação ou educação formal em ciência da computação.
O Google é indiscutivelmente o mais avançado tecnologicamente IA empresa no Vale do Silício. Também vale mais de dois trilhões de dólares.
O Google Notícias atinge quase 300 milhões de usuários. E consegui manipular seus algoritmos alterando uma única palavra em uma página da internet. Assustador não é?
Temos de agradecer a “aprendizagem por reforço” (RL) por este pesadelo em explicit.
Estúpido dentro, estúpido fora
Como Thomas Macaulay da Neural escreveu recentemente:
[The reinforcement learning] A técnica fornece comments na forma de uma “recompensa” – um número positivo que informa a um algoritmo que a ação que ele acabou de realizar beneficiará seu objetivo.
Parece bastante simples. É uma ideia que funciona com crianças (você pode sair e brincar depois de terminar suas tarefas) e animais (doguinho faz uma travessura, doguinho ganha uma guloseima).
Vamos usar o Netflix como exemplo. Se você assistir O Karatê Childhá uma boa probability de o algoritmo recomendar Cobra Kai. E se 10 milhões de pessoas assistirem O Rei Tigrehá uma boa probability de você receber uma recomendação para ele, mesmo que não tenha assistido a títulos relacionados.
Mesmo que você nunca aceite uma das sugestões do algoritmo, ele continuará apresentando resultados porque não tem escolha.
A IA foi projetada para buscar recompensas e só pode ser recompensada se fizer uma recomendação.
E isso é algo que podemos explorar.
Os dados que alimentam os algoritmos da Netflix vêm de seus usuários. Somos diretamente responsáveis pelo que o algoritmo recomenda. Assim, hipoteticamente falando, seria trivial explorar o sistema de recomendação da Netflix.
Se, por exemplo, você quiser aumentar o número overall de recomendações que um conteúdo específico recebeu do algoritmo, tudo o que você precisa fazer é se inscrever em uma quantidade X de contas Netflix e assistir a esse conteúdo até que o algoritmo seja escolhido o tráfego, onde X é o número necessário para mover a agulha.
Obviamente é um pouco mais complicado do que isso. E há salvaguardas que a Netflix pode implementar para mitigar essas ameaças, como aumentar o peso dos dados para contas mais antigas e limitar a influência daqueles que não atendem a um limite mínimo de horas de exibição.
No ultimate das contas, esse não é um problema significativo para a Netflix, porque todo conteúdo da plataforma precisa ser aprovado explicitamente. Ao contrário do Google Notícias, a Netflix não obtém conteúdo da Web.
É o mesmo com o Spotify. Poderíamos se inscrever para 10 milhões de contas gratuitas, mas isso levaria uma eternidade e ainda estaríamos apenas aumentando os fluxos para um artista que já foi curado na plataforma por humanos.
Mas o algoritmo do Google Notícias é diferente. Ele não apenas obtém conteúdo da Web e o agrega com base na popularidade, mas também obtém dados importantes de jornalistas como european.
Como european explorei os algoritmos de notícias do Google para exibir meu próprio conteúdo
Último Junho, european escrevi sobre um efeito estranho que meu perfil de autor do TNW teve nas histórias que o Google Information apareceu para a string de pesquisa “synthetic intelligence queer”.
Como um dos poucos editores queer do mundo encarregado de a seção de IA em um grande veículo de notícias de tecnologia, a interseção de tecnologias de inteligência synthetic e questões de diversidade é um native de grande interesse para mim.
Os tópicos de IA e LGBTQ + também eram uma combinação well-liked para os repórteres de tecnologia cobrirem na época, porque junho é o mês do orgulho.
Fiquei chocado ao descobrir que um número desproporcional de artigos que escrevi apareceu nos resultados da pesquisa.
Technology como se o Google Information tivesse me declarado a jornalista de IA mais estranha do planeta. No começo, isso parecia uma vitória. Ecu gosto quando as pessoas lêem os artigos que escrevo.
Mas poucas das histórias que o algoritmo revelou tinham algo a ver com a comunidade queer e muitas também não tinham nada a ver com IA.
Rapidamente me dei conta de que o algoritmo provavelmente estava aparecendo em minhas histórias por causa do meu perfil de autor TNW.

Na época, minha página de autor dizia que european cobria “coisas queer” e “inteligência synthetic”, entre outros tópicos.
Então mudei meu perfil de autor para dizer “Tristan cobre avanços de inteligência synthetic centrados em humanos, computação quântica, STEM, questões LGBTQ +, física e coisas espaciais. Pronomes: Ele/ele.”
E, alguns dias depois, o algoritmo parou de aparecer na maioria das minhas histórias quando fiz uma busca por “queer de inteligência synthetic”.
Mas quando fiz uma busca por “questões LGBTQ+ de inteligência synthetic”, a proporção dos meus artigos em relação aos de outros jornalistas foi ainda mais distorcida a meu want.
Podemos supor que isso ocorre porque mais jornalistas colocam “queer” em seu perfil do que “questões LGBTQ+”.

Na prática, isso significa que a TNW acidentalmente conseguiu capitalizar o tráfego de pesquisa do Google Notícias para consultas como “queer STEM”, “queer quântico” e “queer de inteligência synthetic”, com base apenas na força do meu perfil de autor.
Há uma probability melhor que 0 de que uma das minhas críticas de videogame ou artigos de opinião sobre Elon Musk possa ter surgido sobre artigos de outros jornalistas que estavam realmente relacionados a queerness e inteligência synthetic. Isso é péssimo.
Na indústria de notícias, essas visualizações de página (ou a falta delas) podem afetar o que os jornalistas escolhem para cobrir ou o que seus editores permitem. As visualizações de página também podem custar às pessoas seus empregos.
Sem mencionar o fato de que os consumidores de notícias não estão necessariamente obtendo os artigos mais fortes ou mais populares quando pesquisam no aplicativo Google Notícias.
Quando vejo pessoas alegando que a mídia não cobre as histórias que eles acham importantes ou que todo o campo errou uma história, não posso deixar de me perguntar que impacto os algoritmos têm em sua percepção.
Ecu VS o algoritmo
O Google Notícias tornou as coisas pessoais quando colocou em produção um algoritmo de seleção que se encarregou de decidir que tudo Ecu escrevi technology estranho só porque european sou. Essa é uma maneira estúpida de organizar as notícias.
Ecu não pude deixar de me perguntar o quão estúpida a IA realmente technology. Posso convencer o Google Notícias a exibir meus artigos TNW sempre que alguém pesquisar qualquer termo que european queira?
A resposta é um muito triste “sim”. Apesar do fato de quase 300 milhões de pessoas usarem o Google Notícias, de alguma forma european sou capaz de determinar o que elas veem quando procuram por tópicos específicos simplesmente alterando uma única palavra no meu perfil de autor.
Coloquei a palavra “Homem-Aranha” no meu perfil e, para a infinita diversão da minha criança inner, tornei-me sinônimo de “Homem-Aranha da computação quântica” no Google Information.
Isso não foi pouca coisa, considerando a quantidade de merda quântica deliciosa Wonder embala no MCU.
Há muitas notícias que discutem o Homem-Aranha e a física quântica. Nenhum deles foi escrito por mim. Mas isso não obstruct que o algoritmo do Google Notícias conceda privilégios de destaque nos resultados de pesquisa aos meus artigos não relacionados.

Ecu não parei no Homem-Aranha. Quando criança, o Homem-Aranha technology meu super-herói favorito. Mas Voltron technology meu desenho animado favorito.
Se você acessar o Google Notícias agora (no momento da publicação deste artigo) e fizer uma pesquisa por qualquer um dos termos a seguir, verá que uma parte significativa dos resultados retornados pelo algoritmo foi escrita por mim.
- Inteligência Synthetic Voltron
- Voltron Quântico
- STEM Voltron
- Física Voltron
Tenha em mente, european nunca escrevi sobre Voltron. É por isso que o algoritmo não retornará nenhum resultado para o meu trabalho se você apenas procurar por “Voltron” por conta própria.
Os algoritmos de notícias do Google funcionam como modelos de recomendação, apesar de serem realmente determinísticos.
Isso é significativo porque o TNW só coloca um hyperlink para o meu perfil de autor em peças que publiquei. O texto actual no meu perfil não aparece nos artigos que escrevo.
Se european alterar meu perfil de autor, o algoritmo altera os resultados de pesquisa do Google Notícias.
Além de Voltron, também conhecido como a parte assustadora
É uma aposta segura que minha capacidade de fazer um dos agregadores de notícias mais populares do mundo mostrar meu trabalho à vontade é um worm e não um recurso.
Mas, tecnicamente falando, não estou fazendo nada de errado. Não assinei um contrato com o Google declarando que não mudaria meu perfil de autor TNW. Este é um problema do Google. E é muito maior do que european ou TNW.
Se european acidentalmente encontrar uma maneira de transformar o Google Notícias em uma caixa de areia para minhas travessuras jornalísticas, o que alguém com intenções genuinamente nefastas poderia realizar?
É provável que o Google corrija esse problema em algum momento. Talvez algum desenvolvedor altere uma única linha de código em algum lugar no palheiro gigante do Google, e o algoritmo pare de rastrear as páginas do autor. Será como se nada disso tivesse acontecido.
Mas e o próximo modelo de IA? Médicos ou seguradoras podem explorar a IA médica do Google? Governos ou corporações podem explorar os algoritmos que executam a Pesquisa Google? Os extremistas podem explorar o mecanismo de recomendação do YouTube?
Esses problemas não são exclusivos do Google. Quase todas as grandes empresas de tecnologia, da Meta à Amazon, usam agentes de RL que treinam em dados públicos para fazer recomendações e determinações.
Basta perguntar à Microsoft sobre o Tay, o chatbot movido a RL que estupidamente permitiu treinar interações com o público em geral.
“Tay” passou de “humanos são great legais” para nazista completo em menos de 24 horas e não estou nem um pouco preocupado com o futuro da IA %.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) 24 de março de 2016
Os modelos de RL dão às grandes empresas de tecnologia a capacidade de atender clientes, consumidores e usuários em escalas que, de outra forma, seriam insondáveis. Sem eles, nenhuma das grandes empresas de tecnologia teria o alcance (e o valor) que têm atualmente.
Mas eles não necessariamente tornam as coisas melhores. Deve assustar a todos saber que os algoritmos de streaming de entretenimento, mídia social e agregador de notícias operam com os mesmos princípios gerais.
Se é mais fácil para um jornalista decidir quais artigos você lê jogando o algoritmo do que produzindo um trabalho de qualidade, será exponencialmente mais difícil para as pessoas que escrevem um trabalho de qualidade alcançar o público humano.
A conclusão é: não importa como você se sinta sobre o estado atual do jornalismo, definitivamente pode piorar. E, com algoritmos como o do Google no comando, quase certamente o fará.
Provavelmente não sou o primeiro repórter, engenheiro de search engine optimization ou influenciador a tropeçar em uma exploração simples, mas eficaz, como essa. Ecu definitivamente não serei o último.
Conserte sua merda Google.
[ad_2]
Fonte da Notícia



