Amazon Alexa agora pode imitar qualquer voz humana

[ad_1]
A Amazon anunciou que o assistente virtual Alexa agora pode imitar tecnicamente a voz de qualquer pessoa com base em alguns clipes, cerca de 1 minuto de gravação.
Se funcionar como anunciado, seria um marco técnico, pois as vozes geradas por computador não enganam os humanos e ainda são uma má escolha para locução de vídeo, por exemplo. Você pode assistir a demonstração ao vivo no vídeo abaixo (timecode 1:02:38):
Na realidade, achei transformar a impressão/tom da voz do típico agente gerado por máquina para corresponder à impressão de voz humana de destino. Não é fácil quantificar o sucesso da demonstração sem conhecer a voz authentic, mas parecia razoavelmente bem-sucedida, embora ainda soasse um pouco robótica.
A frase selecionada foi, sem dúvida, bem escolhida para a demo, pois se presta a uma leitura lenta, quase robótica. A tecnologia é semelhante às IAs usadas para transformar suas fotos em pinturas de Picasso, mas aplicadas a um fluxo de áudio.
Pode parecer divertido ter Alexa falando com a voz de sua celebridade favorita, amigo ou membro da família. No entanto, a Web rapidamente voltou sua atenção para o uso de clipes de voz de familiares falecidos. Esse é o caso de uso que um executivo da Amazon estava apresentando no vídeo acima.
Por um lado, pode parecer uma experiência de cura ouvir a voz de alguém próximo que não está mais conosco. No entanto, também é uma ladeira potencialmente escorregadia com consequências não intencionais. Muitas pessoas começaram a questionar se a tecnologia poderia ser mal utilizada para se passar por pessoas vivas e se temos o direito de usar vozes sem consentimento.
A resposta provavelmente é “depende”, com base na situação e nos usuários. No entanto, uma coisa é certa: essas tecnologias existem e ficarão cada vez melhores. É apenas uma questão de pace até que as vozes sintetizadas sejam indistinguíveis das humanas.
Arquivado em Amazonas.
. Leia mais sobre IA (Inteligência Synthetic), Alexa e[ad_2]
Fonte da Notícia: www.ubergizmo.com