Plano da UE para verificar mensagens privadas em busca de imagens de abuso infantil coloca a criptografia em risco
“Assim sendo, há apenas uma solução lógica: varredura do lado do cliente, onde o conteúdo é examinado quando é descriptografado no dispositivo do usuário para que ele possa visualizar/ler”, diz Woodward. No ano passado, a Apple anunciou que introduziria o escaneamento do lado do cliente – escaneamento feito nos iPhones das pessoas em vez dos servidores da Apple – para verificar fotos de CSAM conhecidos sendo carregados no iCloud. A medida provocou raiva pela possível vigilância de grupos de direitos civis a Edward Snowden e levou a Apple a interromper seus planos um mês depois de anunciá-los inicialmente. (A Apple se recusou a comentar esta história.)
Para empresas de tecnologia, detectar CSAM em suas plataformas e escanear algumas comunicações não é novidade. As empresas que operam nos Estados Unidos são obrigadas a relatar qualquer CSAM que encontrem ou que sejam denunciados por usuários ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), uma organização sem fins lucrativos com sede nos EUA. Mais de 29 milhões de relatórios, contendo 39 milhões de imagens e 44 milhões de vídeos, foram feitos ao NCMEC somente no ano passado. Sob as novas regras da UE, o Centro da UE receberá relatórios CSAM de empresas de tecnologia.
“Muitas empresas não estão fazendo a detecção hoje”, disse Johansson em uma coletiva de imprensa apresentando a legislação. “Esta não é uma proposta sobre criptografia, é uma proposta sobre subject material de abuso sexual infantil”, disse Johansson, acrescentando que a lei “não trata de ler comunicações”, mas de detectar conteúdo de abuso ilegal.
No momento, as empresas de tecnologia encontram o CSAM on-line de diferentes maneiras. E a quantidade de CSAM encontrada está aumentando à medida que as empresas de tecnologia melhoram em detectar e relatar abusos – embora algumas sejam muito melhores que outras. Em alguns casos, a IA está sendo usada para caçar CSAM nunca antes visto. Duplicatas de fotos e vídeos de abuso existentes podem ser detectadas usando “sistemas de hash”, em que o conteúdo de abuso recebe uma impressão virtual que pode ser detectada quando é carregado na internet novamente. Mais de 200 empresas, do Google à Apple, usam o sistema de hash PhotoDNA da Microsoft para escanear milhões de arquivos compartilhados on-line. No entanto, para fazer isso, os sistemas precisam ter acesso às mensagens e arquivos que as pessoas estão enviando, o que não é possível quando a criptografia de ponta a ponta está em vigor.
“Além de detectar CSAM, existirão obrigações para detectar a solicitação de crianças (‘grooming’) no escopo só pode significar que as conversas precisarão ser lidas 24 horas por dia, 7 dias por semana”, diz Diego Naranjo, chefe de política do grupo de liberdades civis Direitos Digitais Europeus. “Isso é um desastre para a confidencialidade das comunicações. As empresas serão solicitadas (por meio de ordens de detecção) ou incentivadas (por meio de medidas de mitigação de risco) a oferecer serviços menos seguros para todos, se quiserem cumprir essas obrigações.”
As discussões sobre a proteção de crianças on-line e como isso pode ser feito com criptografia de ponta a ponta são extremamente complexas, técnicas e combinadas com os horrores dos crimes contra jovens vulneráveis. Uma pesquisa do Unicef, o fundo infantil da ONU, publicada em 2020, diz que a criptografia é necessária para proteger a privacidade das pessoas – incluindo crianças – mas acrescenta que “hinder” os esforços para remover conteúdo e identificar as pessoas que o compartilham. Durante anos, as agências de aplicação da lei em todo o mundo pressionaram para criar maneiras de contornar ou enfraquecer a criptografia. “Não estou dizendo privacidade a qualquer custo, e acho que todos podemos concordar que o abuso infantil é abominável”, diz Woodward, “mas é preciso haver um debate adequado, público e desapaixonado sobre se os riscos do que pode surgir valem a pena. a verdadeira eficácia na luta contra o abuso infantil”.
Cada vez mais, pesquisadores e empresas de tecnologia têm se concentrado em ferramentas de segurança que podem existir ao lado da criptografia de ponta a ponta. As propostas incluem o uso de metadados de mensagens criptografadas – quem, como, o quê e por quê das mensagens, não seu conteúdo – para analisar o comportamento das pessoas e identificar possíveis crimes. Um relatório recente do grupo sem fins lucrativos Industry for Social Accountability (BSR), encomendado pela Meta, descobriu que a criptografia de ponta a ponta é uma força extremamente positiva para defender os direitos humanos das pessoas. Ele sugeriu 45 recomendações sobre como a criptografia e a segurança podem andar juntas e não envolver o acesso às comunicações das pessoas. Quando o relatório foi publicado em abril, Lindsey Andersen, diretora associada de direitos humanos da BSR, disse à WIRED: “Ao contrário da crença widespread, na verdade há muito que pode ser feito mesmo sem acesso às mensagens”.
.
Fonte da Notícia: www.stressed out.com




