TECNOLOGIA

Emotion AI: Um caminho possível para o policiamento do pensamento

Emotion AI: Um caminho possível para o policiamento do pensamento

[ad_1]

Estamos empolgados em trazer o Turn out to be 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!




Um artigo recente da VentureBeat fez referência ao analista do Gartner, Whit Andrews, dizendo que mais e mais empresas estão entrando em uma generation em que a inteligência synthetic (IA) é um aspecto de cada novo projeto. Um desses aplicativos de IA united states of america o reconhecimento facial para analisar expressões com base na impressão facial de uma pessoa para detectar suas emoções ou sentimentos internos, motivações e atitudes.

Conhecido como emoção AI ou computação afetiva, este aplicativo é baseado na teoria das “emoções básicas” [$]que afirma que as pessoas em todos os lugares comunicam seis estados emocionais internos básicos – felicidade, surpresa, medo, nojo, raiva e tristeza – usando os mesmos movimentos faciais com base em nossas origens biológicas e evolutivas.

À primeira vista, essa suposição parece razoável, pois as expressões faciais são um aspecto essencial das comunicações não verbais.

Um recente papel da empresa de analistas do setor de tecnologia AIMultiple afirma que a IA de emoção é uma tecnologia emergente que “permite que computadores e sistemas identifiquem, processem e simulem sentimentos e emoções humanas”. É um campo interdisciplinar que combina ciência da computação, psicologia e ciência cognitiva para ajudar as empresas a tomar melhores decisões, muitas vezes para melhorar a confiabilidade, consistência e eficiência.

Como a IA de emoção está sendo utilizada

Entre seus usos atuais, o tool de IA de emoção é amplamente implantado para marcar entrevistas em vídeo com candidatos a emprego por características como “entusiasmo”, “vontade de aprender”, “consciência e responsabilidade” e “estabilidade pessoal”. O tool também é usado por guardas fronteiriços para detectar ameaças em postos de fronteira, como auxílio para detecção e diagnóstico de pacientes para transtornos de humor, para monitorar salas de aula para tédio ou perturbação, e para monitorar o comportamento humano durante as chamadas de vídeo.

O uso de tal tecnologia está crescendo em popularidade. Na Coreia do Sul, por exemplo, o uso da IA ​​emocional tornou-se tão comum em entrevistas de emprego [$] que os coaches de emprego geralmente fazem seus clientes praticarem as entrevistas de IA. Startup EmotionTrac comercializa tool para advogados analisarem expressões em pace actual para descobrir quais argumentos serão apresentados a jurados em potencial [$]. A Universidade de Tel Aviv desenvolveu uma técnica para detectar uma mentira através da análise do músculo facial e alegou 73% de precisão. Maçã recebeu uma patente para “modificar a operação de um agente inteligente em resposta a expressões faciais e/ou emoções”.

Emotion AI é baseada em pseudociência

No entanto, a emoção AI está repleta de ambiguidade e controvérsiaaté porque os pesquisadores determinaram que expressões faciais variam muito entre contextos e culturas. E aqui está evidência considerável [$] que os movimentos faciais variam muito para serem sinais consistentes de significado emocional. Alguns argumentam que as supostas expressões universais sobre as quais os sistemas de reconhecimento são construídos simplesmente representam estereótipos culturais. Além disso, há evidências crescentes de que a ciência sobre a qual a detecção de emoções é construída está errada, alegando que há evidência insuficiente para apoiar a tese de que as configurações faciais refletem de forma precisa, confiável e específica os estados emocionais.

Citando Sandra Wachter, a futurista Tracey Follows tuitou a tecnologia tem “no melhor dos casos, nenhuma base comprovada na ciência e, no pior, é pseudociência absoluta”.

A estudiosa de ética em IA Kate Crawford vai um passo além, concluindo [$] não há boas evidências de que as expressões faciais revelem os sentimentos de uma pessoa. Assim, as decisões tomadas com base na emoção AI são repletas de incerteza.

Essa preocupação está fazendo com que pelo menos algumas empresas deixem de desenvolver ou implantar a IA emocional. Microsoft recentemente Atualizada sua estrutura padrão de IA responsável, que orienta como eles criam sistemas de IA para garantir resultados mais benéficos e equitativos e promover IA confiável. Um resultado de sua revisão interna de produtos e serviços de IA usando essa estrutura é o “aposentar-se” de recursos no Azure Face “que inferem estados emocionais e atributos de identidade”. Segundo a empresa, a decisão foi baseada na falta de consenso de especialistas sobre como inferir emoções a partir da aparência, especialmente em dados demográficos e casos de uso, e por questões de privacidade. Em suma, a empresa está demonstrando o uso responsável da IA ​​ou pelo menos como evitar possíveis impactos deletérios da tecnologia.

Mesmo com essas preocupações evidentes, o mercado de inteligência synthetic emocional está crescendo. previsão de crescimento a uma taxa de crescimento anual composta de 12% até 2028. O capital de risco continua a fluir para o campo. Por exemplo, a Uniphore, uma empresa que atualmente oferece tool que incorpora inteligência synthetic de emoção, recentemente fechou US$ 400 milhões em financiamento da série E com uma avaliação de US$ 2,5 bilhões.

caixa de Pandora

A tecnologia de IA de emoção semelhante tem sido usada pelas empresas para melhorar a produtividade há vários anos. Um Insider artigo relataram que os empregadores na China usam “tecnologia de vigilância emocional” para modificar fluxos de trabalho, incluindo colocação de funcionários e intervalos, para aumentar a produtividade e os lucros.

Não são apenas as empresas que estão interessadas nesta tecnologia. De acordo com recentemente Publicados [$] Segundo relatos, o Instituto de Inteligência Synthetic do Centro Nacional de Ciências Abrangentes de Hefei, na China, criou um programa de IA que lê expressões faciais e ondas cerebrais para “discernir o nível de aceitação da educação ideológica e política”. Os sujeitos de teste foram mostrados vídeos sobre o partido no poder enquanto o programa de IA recolheu e tratou os dados. Em seguida, retornou uma pontuação que indicava se o sujeito precisava de mais educação política e avaliava se eles eram suficientemente leais. De acordo com o The Telegraph artigoa pontuação incluiu a “determinação do sujeito em ser grato à festa, ouvir a festa e seguir a festa”.

Cada onda de inovação cria vencedores e perdedores e traz elementos que podem prejudicar segmentos da população. No caso da IA ​​emocional, muitos dos usos são uma combinação de vigilância intrusiva e Taylorismo, que é uma mistura questionável. Além disso, o campo é baseado em uma premissa científica instável e provavelmente falsa. No entanto, a aplicação da IA ​​emocional é irrestrita, exceto pela opinião pública, uma vez que os usos da IA ​​permanecem amplamente não regulamentados em todo o mundo.

Notícias de neurociência pergunta a questão relevante de se desejaríamos uma vigilância tão íntima em nossas vidas, mesmo que a IA emocional pudesse ser projetada para ler com precisão os sentimentos de todos. Esta questão vai para a questão central da privacidade. Embora possa haver casos de uso positivos para a IA de emoção – supondo que seja baseada em ciência válida – ela apresenta, no entanto, uma ladeira escorregadia que pode levar ao Orwelliano. Polícia do Pensamento.

Gary Grossman é o vice-presidente sênior de prática de tecnologia da Edelman e líder world do Edelman AI Middle of Excellence.

Tomadores de decisão de dados

Bem-vindo à comunidade VentureBeat!

DataDecisionMakers é onde especialistas, incluindo o pessoal técnico que trabalha com dados, podem compartilhar insights e inovações relacionadas a dados.

Se você quiser ler sobre ideias de ponta e informações atualizadas, práticas recomendadas e o futuro dos dados e da tecnologia de dados, junte-se a nós no DataDecisionMakers.

Você pode até considerar contribuir com um artigo seu!

Leia mais sobre DataDecisionMakers



[ad_2]

Fonte da Notícia: venturebeat.com

Artigos relacionados

Botão Voltar ao topo