TECNOLOGIA

Vigilância escolar nunca protegerá crianças de tiroteios

Vigilância escolar nunca protegerá crianças de tiroteios

[ad_1]

Se nós somos acreditar nos fornecedores de sistemas de vigilância escolar, as escolas Okay-12 em breve operarão de maneira semelhante a uma aglomeração de Relatório da minoria, Pessoa de interessee Robocop. Os sistemas de “grau militar” sorveriam os dados dos alunos, captando a mera sugestão de ideias prejudiciais, e despachariam oficiais antes que os supostos perpetradores pudessem realizar seus atos vis. No caso improvável de alguém conseguir escapar dos sistemas preditivos, eles seriam inevitavelmente interrompidos por sistemas de detecção de armas de última geração e sensores biométricos que interpretam a marcha ou o tom de uma pessoa, alertando as autoridades sobre o perigo iminente. A camada ultimate pode ser a mais avançada tecnologicamente – alguma forma de drone ou talvez até um cachorro robô, que seria capaz de desarmar, distrair ou desativar o indivíduo perigoso antes que qualquer dano actual seja causado. Se investirmos nesses sistemas, diz a linha de pensamento, nossos filhos finalmente estarão seguros.



Não só este não é o nosso presente, como nunca será o nosso futuro, não importa quão expansivos e complexos os sistemas de vigilância se tornem.

Nos últimos anos, uma série de empresas surgiram, todas prometendo uma variedade de intervenções tecnológicas que reduzirão ou até eliminarão o risco de tiroteios em escolas. As “soluções” propostas variam de ferramentas que usam aprendizado de máquina e monitoramento humano para prever comportamentos violentos, inteligência synthetic emparelhada com câmeras que determinam a intenção dos indivíduos por meio de sua linguagem corporal, até microfones que identificam o potencial de violência com base em um tom de voz. . Muitos deles usam o espectro de crianças mortas para vender sua tecnologia. Empresa de vigilância AnyVision, por exemplo, u.s. imagens dos tiroteios de Parkland e Sandy Hook em apresentações de sua tecnologia de reconhecimento facial e de armas de fogo. Imediatamente após o tiroteio em Uvalde no mês passado, a empresa Axon anunciado planos para um drone equipado com taser como meio de lidar com atiradores escolares. (A empresa posteriormente suspendeu o plano, depois que membros de seu conselho de ética se demitiram.) A lista continuae cada empresa quer nos fazer acreditar que só ela tem a solução para esse problema.

A falha aqui não está apenas nos próprios sistemas (Uvalde, por exemplo, parecia ter pelo menos uma dessas “medidas de segurança” em vigor), mas na forma como as pessoas as concebem. Assim como o próprio policiamento, cada falha de um sistema de vigilância ou segurança geralmente resulta em pessoas pedindo uma vigilância mais ampla. Se um perigo não for previsto e prevenido, as empresas frequentemente citam a necessidade de mais dados para resolver as lacunas em seus sistemas – e governos e escolas muitas vezes compram isso. Em Nova York, apesar das muitas falhas dos mecanismos de vigilância para prevenir (ou mesmo capturar) a atirador de metrô recenteo prefeito da cidade decidiu redobrar a necessidade de mais tecnologia de vigilância. Enquanto isso, as escolas da cidade estão supostamente ignorando a moratória sobre a tecnologia de reconhecimento facial. O jornal New York Instances relatórios que as escolas dos EUA gastaram US$ 3,1 bilhões em produtos e serviços de segurança somente em 2021. E a recente legislação sobre armas do Congresso inclui outros US$ 300 milhões para aumentar a segurança escolar.

Mas em sua raiz, o que muitos desses sistemas preditivos prometem é uma medida de certeza em situações sobre as quais não pode haver nenhuma. As empresas de tecnologia consistentemente lançam a noção de dados completos e, portanto, sistemas perfeitos, como algo que está brand depois do próximo cume – um ambiente em que somos tão completamente vigiados que todo e qualquer comportamento antissocial pode ser previsto e, assim, a violência pode ser evitada. Mas um conjunto abrangente de dados do comportamento humano em andamento é como o horizonte: pode ser conceituado, mas nunca realmente alcançado.

Atualmente, as empresas se envolvem em uma variedade de técnicas bizarras para treinar esses sistemas: Alguns estágios ataques simulados; outros usam filmes de ação Curti John Wick, dificilmente bons indicadores da vida actual. Em algum momento, por mais macabro que pareça, é concebível que essas empresas treinem seus sistemas com dados de tiroteios no mundo actual. No entanto, mesmo que imagens de incidentes reais se tornassem disponíveis (e nas grandes quantidades que esses sistemas exigem), os modelos ainda não conseguiriam prever com precisão a próxima tragédia com base nas anteriores. Uvalde generation diferente de Parkland, que generation diferente de Sandy Hook, que generation diferente de Columbine.

As tecnologias que oferecem previsões sobre intenções ou motivações estão fazendo uma aposta estatística na probabilidade de um determinado futuro com base no que sempre serão dados incompletos e sem contexto, independentemente de sua fonte. A suposição básica ao usar um modelo de aprendizado de máquina é que existe um padrão a ser identificado; neste caso, que há algum comportamento “commonplace” que os atiradores apresentam na cena do crime. Mas encontrar esse padrão é improvável. Isso é especialmente verdadeiro devido às mudanças quase contínuas no léxico e nas práticas dos adolescentes. Indiscutivelmente mais do que muitos outros segmentos da população, os jovens estão mudando a maneira como falam, se vestem, escrevem e se apresentam – muitas vezes explicitamente para evitar e fugir do olhar atento dos adultos. Desenvolver um modelo consistentemente preciso desse comportamento é quase impossível.

.

[ad_2]

Fonte da Notícia: www.stressed.com

Artigos relacionados

Botão Voltar ao topo