Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Deepfake Audio créés par les nouvelles IA les Commentaires de Shawn Surber de Tanium

août 2023 par Shawn Surber de Tanium

Shawn Surber, Senior
Director, Technical Account Management chez Tanium commente les
deepfakes audio créés par les dernières générations
d’Intelligences Artificielles.

“Les deepfakes audio peuvent être très convaincants et
s’améliorent de jour en jour. Une étude récente de l’University
College London au Royaume-Uni a dévoilé des chiffres surprenants sur
l’efficacité de la technologie des deepfakes audio. Selon cette étude,
même des auditeurs capables de détecter ces impostures ont été
dupés dans 25 % des cas. À mesure que la technologie de l’IA
progresse, ce chiffre est susceptible d’augmenter, ce qui accroît les
risques potentiels associés aux imitations de type "deepfake". Ce qui
rend les contrefaçons audio particulièrement dangereuses, c’est leur
capacité à jouer sur les émotions humaines. La voix à l’autre bout
du fil peut être une contrefaçon bien conçue, destinée à exploiter
les sentiments de compassion, de peur ou d’urgence de la victime."_

"Imaginez que vous receviez un appel téléphonique tard dans la nuit
d’une personne prétendant être un membre de votre famille, implorant
de l’aide en urgence. Si l’on ajoute à cela la distorsion naturelle des
lignes téléphoniques, qui masque encore davantage les imperfections de
l’imitation, l’impression d’authenticité peut être impressionnante. La
situation hypothétique d’un "petit-fils" appelant tard dans la nuit
pour demander de l’argent pour une caution et priant son père de garder
le secret n’est pas une simple fiction. C’est arrivé à l’un de mes
amis et de nombreux cas d’escroqueries utilisant précisément ces
tactiques ont été signalés, ciblant les personnes âgées ou celles
qui peuvent être plus sensibles aux appels émotionnels. Les appels
surviennent souvent à des moments où les défenses de la victime sont
abaissées, créant un sentiment d’urgence qui laisse peu de place à
l’esprit critique. Ce cocktail de réalisme et de manipulation
émotionnelle peut avoir des conséquences dévastatrices."_

"Nous pouvons nous attendre à une amélioration continue des deepfake
audio dans un avenir très proche, car la technologie s’améliore et les
gens continuent à publier des contenus accessibles au public sur les
médias sociaux, y compris leurs propres voix dans des situations
normales et stressantes. La détection d’un deepfake peut être
difficile et exige de l’auditeur qu’il soit calme et qu’il fasse
confiance à son instinct. Selon l’étude universitaire, les anglophones
détectent le plus souvent les deepfakes en raison d’une respiration
anormale, tandis que les personnes parlant le Mandarin détectent des
anomalies dans la fluidité, le rythme et la cadence. Ainsi, même si
les clés pour reconnaître un deepfake audio peuvent varier en fonction
de la langue ou de la culture, si vous pensez être la cible d’un
deepfake, la clé est de faire confiance à votre instinct. Si vous avez
l’impression que quelque chose ne va pas, c’est probablement le cas.
Posez des questions sans rapport avec le sujet, modifiez la nature et la
cadence de votre discours et dites même quelque chose que vous ne
diriez pas normalement à la personne qui vous appelle, juste pour
jauger sa réaction. S’il ne s’agit pas d’un deepfake, vous pourrez en
rire avec lui plus tard, mais si c’est le cas, vous venez peut-être
d’éviter une escroquerie.”_


Voir les articles précédents

    

Voir les articles suivants