Novo argumento da Amazon: deixe Alexa falar como seus parentes do além-túmulo
[ad_1]
No Conferência Re:Mars da Amazon, o vice-presidente sênior da Alexa, Rohit Prasad, exibiu uma nova e surpreendente capacidade de assistente de voz: a suposta capacidade de imitar vozes. Até o momento, não há previsão de quando ou se esse recurso será lançado ao público.
Mais estranho ainda, a Amazon enquadrou essa capacidade de copiar como uma maneira de comemorar entes queridos perdidos. Ele reproduziu um vídeo de demonstração em que Alexa lia para uma criança na voz de seu avó recentemente falecida. Prasad enfatizou que a empresa estava buscando maneiras de tornar a IA o mais pessoal possível. “Embora a IA não possa eliminar a dor da perda, ele disse, “ela pode definitivamente fazer as memórias durarem”. Um porta-voz da Amazon disse ao Engadget que a nova habilidade pode criar uma impressão de voz sintética depois de ser treinada com apenas um minuto de áudio do indivíduo que deveria estar replicando.
Especialistas em segurança há muito pace têm preocupações de que ferramentas de áudio falsas profundas, que usam tecnologia de conversão de texto em fala para criar vozes sintéticas, abririam caminho para uma enxurrada de novos golpes. O instrument de clonagem de voz possibilitou vários crimes, como um incidente de 2020 nos Emirados Árabes Unidos, onde fraudadores enganaram um gerente de banco para transferir US$ 35 milhões depois de personificado um diretor de empresa. Mas crimes de áudio falsos profundos ainda são relativamente incomume as ferramentas disponíveis para golpistas são, por enquanto, relativamente primitivas.
Todos os produtos recomendados pelo Engadget são selecionados por nossa equipe editorial, independente de nossa matriz. Algumas de nossas histórias incluem hyperlinks de afiliados. Se você comprar algo através de um desses hyperlinks, podemos ganhar uma comissão de afiliado.
[ad_2]
Fonte da Notícia: www.engadget.com



