Les escrocs utilisent des outils d’IA de clonage vocal pour se faire passer pour des parents de victimes ayant désespérément besoin d’aide financière. Cela fonctionne.
Êtes-vous sûr que c’est votre proche au bout du fil ? Méfiez-vous des arnaques de clonage de voix par intelligence artificielle.
Vous pourriez très bien recevoir dans un avenir proche un appel d’un parent ayant un besoin urgent d’aide, vous demandant de lui envoyer rapidement de l’argent. Et vous pourriez être convaincu qu’il s’agit bien de lui parce que, eh bien, vous connaissez sa voix.
L’intelligence artificielle change cela. Les nouveaux outils d’IA générative peuvent créer toutes sortes de résultats à partir de simples invites textuelles, y compris des essais écrits dans le style d’un auteur particulier, des images dignes d’un prix artistique et, avec un simple extrait de la voix d’une personne, une voix qui ressemble de manière convaincante à une personne donnée.
En janvier, les chercheurs de Microsoft ont fait la démonstration d’un outil d’IA de synthèse vocale qui, à partir d’un échantillon audio de trois secondes seulement, peut simuler fidèlement la voix d’une personne. Ils n’ont pas partagé le code pour que d’autres puissent s’amuser avec ; en revanche, ils ont prévenu que l’outil, appelé VALL-E, « peut comporter des risques potentiels en cas de mauvaise utilisation… tels que l’usurpation de l’identification vocale ou l’usurpation de l’identité d’un locuteur spécifique ».
Mais une technologie similaire existe déjà dans la nature et les escrocs en profitent. S’ils peuvent trouver 30 secondes de votre voix quelque part en ligne, il y a de fortes chances qu’ils puissent la cloner – et lui faire dire n’importe quoi.
« Il y a deux ans, voire un an, il fallait beaucoup d’audio pour cloner la voix d’une personne. Maintenant… si vous avez une page Facebook… ou si vous avez enregistré un TikTok et que votre voix y figure pendant 30 secondes, les gens peuvent cloner votre voix », a déclaré au Washington Post Hany Farid, professeur de criminalistique numérique à l’Université de Californie à Berkeley.
L’argent s’est envolé
Le Post a fait état de ce péril ce week-end, décrivant comment une famille canadienne a été victime d’escrocs utilisant le clonage vocal par IA – et a perdu des milliers de dollars. Des parents âgés ont été informés par un « avocat » que leur fils avait tué un diplomate américain dans un accident de voiture, qu’il était en prison et qu’il avait besoin d’argent pour payer ses frais de justice.
Le prétendu avocat a ensuite passé le téléphone au fils, qui a dit aux parents qu’il les aimait et les appréciait et qu’il avait besoin d’argent. La voix clonée était « suffisamment proche pour que mes parents croient vraiment qu’ils ont parlé avec moi », a déclaré le fils, Benjamin Perkin, au Post.
Les parents ont envoyé plus de 15 000 dollars par le biais d’un terminal Bitcoin à – eh bien, à des escrocs, et non à leur fils, comme ils le pensaient.
« L’argent a disparu », a dit Perkin au journal. « Il n’y a pas d’assurance. On ne peut pas le récupérer. Il est parti. »
ElevenLabs, une société qui propose un outil de génération de voix par IA, a tweeté le 30 janvier qu’elle voyait « un nombre croissant de cas d’utilisation abusive du clonage vocal ». Le lendemain, elle a annoncé que la fonction de clonage de la voix ne serait plus disponible pour les utilisateurs de la version gratuite de son outil, VoiceLab.
Fortune a contacté l’entreprise pour obtenir des commentaires, mais n’a pas reçu de réponse immédiate.
« La quasi-totalité du contenu malveillant a été généré par des comptes gratuits et anonymes », écrit-elle. « Une vérification supplémentaire de l’identité est nécessaire. Pour cette raison, VoiceLab ne sera disponible que sur des tiers payants. » (Les abonnements commencent à 5 dollars par mois).
La vérification des cartes n’arrêtera pas tous les mauvais acteurs, reconnaît-elle, mais elle rendra les utilisateurs moins anonymes et les « obligera à y réfléchir à deux fois. »
–
SEO AGENCE est votre agence web à Lille.