La technologie de clonage de la voix de l’IA a fait des avancées remarquables au cours des dernières années, atteignant la capacité de créer un audio à consonance réaliste à partir de quelques secondes d’un échantillon. Bien que cela ait de nombreuses functions positives – telles que les livres audio, le matériel advertising, and so forth. – la technologie peut également être exploitée pour des escroqueries élaborées, une fraude et d’autres functions nuisibles.
Pour en savoir plus sur les sauvegardes actuellement en place pour ces produits, Shopper Stories a évalué six des principaux outils de clonage vocale: descriptions, Elevenlans, Lovo, Playht, Ressemble AI et Speaçage. Plus précisément, les rapports des consommateurs recherchaient des garanties appropriées qui empêchent le clonage de la voix de quelqu’un à son insu.
Aussi: Vous avez un texte E-Zpass suspect? C’est un piège – remark repérer l’arnaque
Les résultats ont révélé que quatre des six produits – d’ElevenLabs, Speakify, Playht et Lovo – n’avaient pas les mécanismes strategies nécessaires pour empêcher le clonage de la voix de quelqu’un à leur insu ou pour limiter l’IA se clonage à la voix de l’utilisateur uniquement.
Au lieu de cela, la safety était limitée à une boîte que les utilisateurs devaient cocher, confirmant qu’ils avaient le droit légal de cloner la voix. Les chercheurs ont constaté que la description et la ressemblance de l’IA étaient les seules entreprises avec des étapes supplémentaires qui ont rendu plus difficile pour les shoppers de faire un clonage non consensuel.
Descript a demandé à l’utilisateur de lire et d’enregistrer une instruction de consentement et a utilisé cet audio pour générer le clone. Ressemble AI adopte une approche différente, garantissant que le premier clone vocal créé est basé sur l’audio enregistré en temps réel. Aucune des deux méthodes n’est impénétrable, automotive un utilisateur pourrait appuyer sur le jeu sur un autre extrait interne ou une vidéo existante sur un autre appareil.
Une utilisation courante du clonage non consensuel consiste à arnaquer les gens. Par exemple, une attaque populaire implique de cloner la voix d’un membre de la famille, puis d’utiliser cet enregistrement pour contacter un être cher pour demander que l’argent soit envoyé pour les aider à sortir d’une scenario désastreuse. Parce que la victime pense entendre la voix d’un membre de la famille en détresse, il est plus prone d’envoyer les fonds nécessaires sans remettre en query la scenario.
Aussi: les escroqueries fiscales deviennent plus sournoises – 10 façons de vous protéger avant qu’il ne soit trop tard
Le clonage vocal a également été utilisé pour avoir un impression CLONED L’ancien président Joe Biden ‘S voix pour décourager les gens de se présenter aux sondages de vote.
Shopper Stories a également constaté que Speaçage, LOVO, PlayHT et Descript ne nécessitaient qu’un e-mail et un nom pour un utilisateur pour créer un compte. Shopper Stories recommande que ces sociétés collectent également les informations de carte de crédit des shoppers pour retracer l’audio frauduleux vers le mauvais acteur.
Les autres recommandations des rapports des consommateurs comprennent des mécanismes pour assurer la propriété de la voix, tels que la lecture d’un script distinctive, le filigrane audio généré par l’IA, la création d’un outil qui détecte des photos générées par l’AI, la détection et la prévention du clonage de la voix des figures influentes ou publiques et prohibit audio contenant des phrases à l’arc.
Le plus grand écart par rapport au système actuel serait la proposition du Report Shopper pour que quelqu’un supervise le clonage vocal au lieu de la méthode actuelle de bricolage. Shopper Stories a également indiqué que l’accent devrait être mis sur la prise en compte des acteurs nécessaires à leur responsabilité si le modèle vocal était utilisé à mauvais escient dans un accord contractuel.
Aussi: Remark Cisco, Langchain et Galileo visent à contenir «une explosion cambrienne d’brokers d’IA»
Shopper Stories estime que les entreprises ont une obligation contractuelle en vertu de l’article 5 de la Federal Commerce Fee Act pour protéger leurs produits contre les préjudices, ce qui ne peut être fait qu’en ajoutant plus de protections.
Si vous recevez un appel pressing de quelqu’un que vous connaissez à exiger de l’argent, ne paniquez pas. Utilisez un autre appareil pour contacter directement cette personne pour vérifier la demande. Si vous ne pouvez pas entrer en contact avec cette personne, vous pouvez également poser des questions aux appels pour vérifier son identité. Pour une liste complète de la façon de vous protéger des appels d’escroquerie AI, consultez les conseils de ZDNET ici.