Documento vazado indica que o Fb pode estar subnotificando imagens de abuso infantil
[ad_1]
Um documento de treinamento usado pelos moderadores de conteúdo do Fb levanta questões sobre se a rede social está subnotificando imagens de possível abuso sexual infantil. O jornal New York Instances relatórios.O documento supostamente diz aos moderadores para “errar do lado de um adulto” ao avaliar imagens, uma prática que os moderadores discordam, mas os executivos da empresa têm defendido.
A questão é como os moderadores do Fb devem lidar com imagens nas quais a idade do sujeito não é imediatamente óbvia. Essa decisão pode ter implicações significativas, pois as imagens suspeitas de abuso infantil são relatadas ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), que encaminha as imagens para a aplicação da lei. Imagens que retratam adultos, por outro lado, podem ser removidas do Fb se violarem suas regras, mas não são denunciadas a autoridades externas.
Mas como O NYT ressalta, não há uma maneira confiável de determinar a idade com base em uma fotografia. Os moderadores são treinados para usar um método de mais de 50 anos para identificar “as fases progressivas da puberdade”, mas a metodologia “não foi projetada para determinar a idade de alguém”. E, como as diretrizes do Fb instruem os moderadores a assumir que as fotos que eles não têm certeza são de adultos, os moderadores suspeitam que muitas imagens de crianças podem estar escapando.
Isso é ainda mais complicado pelo fato de que os moderadores de contrato do Fb, que trabalham para empresas externas e não recebem os mesmos benefícios que os funcionários em pace integral, podem ter apenas alguns segundos para tomar uma decisão e podem ser penalizados por cometer o erro. chamar.
O Fb, que relata mais subject matter de abuso sexual infantil ao NCMEC do que qualquer outra empresa, diz que errar do lado dos adultos visa proteger os usuários e a privacidade e evitar relatórios falsos que possam prejudicar a capacidade das autoridades de investigar casos reais de abuso. A chefe de segurança da empresa, Antigone Davis, disse ao jornal que também pode ser uma responsabilidade criminal para eles fazer relatórios falsos. Notavelmente, nem todas as empresas compartilham a filosofia do Fb sobre essa questão. Apple, Snap e TikTok supostamente adotam “a abordagem oposta” e relatam imagens quando não têm certeza de uma idade.
Todos os produtos recomendados pelo Engadget são selecionados por nossa equipe editorial, independente de nossa matriz. Algumas de nossas histórias incluem hyperlinks de afiliados. Se você comprar algo através de um desses hyperlinks, podemos ganhar uma comissão de afiliado.
[ad_2]
Fonte da Notícia



