Deepfakes: las voces generadas por IA pueden engañar tanto a los humanos como a los asistentes inteligentes

Una mujer que usa un asistente doméstico inteligente

Ross Helen / Shutterstock

El software disponible gratuitamente que puede imitar la voz de un individuo específico produce resultados que pueden engañar a las personas y herramientas activadas por voz, como los asistentes domésticos inteligentes.

Los investigadores de seguridad están cada vez más preocupados por el software deepfake, que utiliza inteligencia artificial para alterar videos o fotografías, por ejemplo, al mapear la cara de una persona sobre otra.

Emily Wenger en la Universidad de Chicago y sus colegas querían investigar versiones de audio de estas herramientas, que generan un habla en inglés realista basada en una muestra de la voz de una persona, …


Source: New Scientist – Home by www.newscientist.com.

*The article has been translated based on the content of New Scientist – Home by www.newscientist.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!