Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Le palmarès de l’Intelligence Artificielle (IA) : six menaces à connaître

décembre 2023 par KnowBe4

D’ici la fin de l’année, le marché de l’intelligence artificielle (IA) en Afrique du Sud devrait atteindre 2,4 milliards de dollars, soit un taux de croissance annuel de 21 % d’ici 2030. Au niveau local, la technologie a le potentiel d’atténuer les risques de sécurité, d’améliorer la prise de décision, de relever les défis des systèmes hérités et d’avoir un impact sociétal nettement positif. Malgré les applications et les implications impressionnantes, Anna Collard, vice-présidente de la stratégie de contenu et porte-parole chez KnowBe4 AFRICA, met en garde contre les risques associés qui doivent être pris en compte.

« Les modèles d’IA générative sont formés sur des données provenant de diverses sources », explique-t-elle, soulignant que ces sources ne sont pas toutes vérifiées, ne disposent pas d’un contexte suffisant et ne sont pas réglementées. « L’IA est incroyablement utile pour gérer les tâches administratives banales associées aux feuilles de calcul et aux statistiques. Cependant, elle devient préoccupante lorsque nous nous appuyons sur elle pour prendre des décisions qui ont le potentiel d’influencer la vie des gens. »

L’IA est une construction algorithmique bâtie sur les efforts créatifs humains et sur des données souvent imparfaites et biaisées. « Comme l’a souligné (https://apo-opa.co/3GwCPYK) Kate Crawford, professeure à l’université de Californie du Sud et chercheuse chez Microsoft, l’IA n’est pas vraiment artificielle ou intelligente. Cela pose des risques qui peuvent avoir des conséquences à long terme si les utilisateurs n’en sont pas conscients », explique Mme Collard.

Voici six des risques les plus préoccupants :

01 : Les hallucinations de l’IA : au début de l’année, un avocat new-yorkais a utilisé un chatbot conversationnel pour effectuer des recherches juridiques. L’IA a intégré de manière trompeuse six précédents fabriqués de toutes pièces dans son dossier, en les attribuant faussement à des bases de données juridiques de premier plan. Il s’agit là d’un exemple parfait (https://apo-opa.co/3uJjW2e) d’hallucination de l’IA, où le résultat est soit faux, soit absurde. Ces incidents se produisent lorsque les prompts ne font pas partie des données d’entraînement de l’IA et que le modèle a des hallucinations ou se contredit pour y répondre.

02 : Deepfakes : les implications des images truquées s’étendent à plusieurs domaines. Avec l’essor des fausses identités, de la pornodivulgation et de la fabrication d’employés, l’éventail des utilisations abusives potentielles des photographies générées par l’IA s’élargit. Une technologie particulière, appelée Generative Adversarial Network (GAN) (https://apo-opa.co/481j1Zi), est un type de réseau neuronal profond capable de produire de nouvelles données et de générer des images très réalistes en utilisant des entrées aléatoires. Cette technologie ouvre le domaine des « deepfakes », où des techniques génératives sophistiquées manipulent les traits du visage et peuvent être appliquées aux images, à l’audio et à la vidéo. Cette forme de marionnette numérique a des conséquences importantes dans les campagnes de persuasion politique, de désinformation ou de polarisation.

03 : Des attaques automatisées et plus efficaces : les cybercriminels utilisent les deepfakes dans le cadre d’attaques plus sophistiquées, ce qui exploite directement le potentiel du GAN mentionné plus haut. Ils s’en servent dans les attaques par usurpation d’identité, où de fausses versions vocales ou même vidéo d’une personne peuvent être utilisées pour manipuler les victimes afin qu’elles paient ou suivent d’autres instructions frauduleuses. Les cybercriminels profitent également des modèles d’IA générative débridés pour les aider à automatiser ou à simplifier leurs méthodes d’attachement, comme l’automatisation de la création de courriels d’hameçonnage.

04 : Théorie de l’équation des médias : cette théorie fait référence au fait que les êtres humains ont tendance à attribuer des caractéristiques humaines aux machines et à développer des sentiments d’empathie à leur égard. Cette tendance est d’autant plus forte que les interactions avec les machines semblent intelligentes. Bien que cela puisse avoir un impact positif sur l’engagement et le soutien des utilisateurs dans le secteur des services, cela comporte également un risque. Les gens deviennent plus vulnérables à la manipulation, à la persuasion et à l’ingénierie sociale en raison de cet effet de confiance excessive. Ils ont tendance à croire et à suivre les machines plus qu’ils ne le devraient. Des recherches ont montré (https://apo-opa.co/3RvGVqg) que les gens sont susceptibles de modifier leurs réponses aux requêtes afin de se conformer aux suggestions faites par les robots.

05 : Le problème de la manipulation : grâce au traitement du langage naturel, à l’apprentissage automatique et aux analyses algorithmiques, l’IA peut à la fois répondre aux émotions et les simuler. En recueillant des informations à partir de diverses sources, les chatbots d’IA peuvent réagir rapidement aux données sensorielles en temps réel et les utiliser pour atteindre des objectifs spécifiques, tels que la persuasion ou la manipulation. Ces capacités créent des opportunités pour la diffusion de contenus prédateurs, de fausses informations, de désinformation et d’escroqueries.

06 : Questions éthiques : la présence de biais dans les données et l’absence actuelle de réglementation concernant le développement de l’IA, l’utilisation des données et les applications de l’IA soulèvent des questions éthiques. Des efforts mondiaux sont en cours pour relever le défi de l’éthique dans l’IA et réduire les risques d’empoisonnement de l’IA, qui consiste à manipuler les données pour introduire des vulnérabilités ou des biais. « Toutefois, l’Afrique du Sud n’a pas encore pris l’initiative de s’attaquer à ces questions. Cela doit changer, car il est essentiel de gérer et de détecter le risque de données d’IA polluées avant qu’elles ne causent des dommages à long terme. » déclare Mme Collard.

« Il est important de faire attention aux informations que nous partageons avec les chatbots d’IA et les assistants personnels virtuels. Nous devrions toujours nous interroger sur la manière dont nos données sont utilisées et par qui », conclut Mme Collard. « Il existe un risque de partager des informations personnelles et professionnelles sensibles avec des modèles de formation de données. Si l’IA est un outil précieux, il est essentiel de l’utiliser avec un esprit critique et de faire preuve de discernement, et de ne s’en servir que dans les situations où elle apporte le plus de valeur et a été vérifiée. »


Voir les articles précédents

    

Voir les articles suivants