Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Elections : comment l’IA générative et les deep fakes influencent le débat public

septembre 2023 par Check Point Software

Depuis son apparition, l’intelligence artificielle a impacté de nombreux aspects de notre vie quotidienne. Cet article explore comment les récentes avancées dans les technologies d’IA générative pourraient influencer les élections à venir. Nous analysons plus particulièrement deux changements primaires : la capacité qu’a l’IA de créer des textes persuasifs et personnalisés pour générer des échanges individuels à grande échelle, ainsi que de produire des contenus audiovisuels crédibles à moindre coût. De nombreux observateurs craignent que ces évolutions séparent le discours public des débats basés sur les faits et les idéologies, mettant ainsi en péril l’essence même du principe électoral.

Faits marquants :

Check Point analyse les effets négatifs que pourrait générer une propagande basée sur l’IA et identifions les mesures qui pourraient les atténuer. Pour cela, il est nécessaire que différents intervenants coopèrent, notamment les développeurs d’IA, les autorités gouvernementales et la société civile.
Une réaction excessive à la menace pourrait aggraver la situation et rappeler les préoccupations passées concernant les vulnerabilités des machines à voter.

Les réactions à la distorsion du dialogue politique provoquée par l’IA pourraient entraver l’engagement du public dans le débat politique. Nous pensons que ce qui est en jeu, c’est la confiance dans le discours public, et nous redoutons que des mises en garde excessives ne fragilisent davantage cette confiance. C’est ça le vrai danger : les peurs et les mises en garde à l’égard des nouvelles technologies, avant qu’elles ne nous déconnectent de la réalité, pourraient aboutir à la perte de confiance dans l’appareil démocratique.

Les élections présidentielles américaines de 2020 et les inquiétudes liées au « piratage des élections ».

Les élections démocratiques reposent de plusieurs éléments essentiels : un débat public libre (lieu public d’échange d’idées où les opinions contradictoires sont confrontées et pondérées), un processus de vote équitable et la garantie d’une passation de pouvoir sereine, qui respecte le résultat du scrutin. Chacun de ces éléments a été mis à l’épreuve au cours des dernières années.

Juste avant les élections présidentielles américaines de 2020, la fiabilité et la résistance des machines à voter ont fait l’objet d’une attention particulière. Une série de rencontres et de tests de vulnérabilité publics ont occupé le devant de la scène. L’initiative « Voting village » de la DefCon a fourni une plateforme aux hackers pour évaluer la sécurité de différentes machines à voter à travers les États-Unis. Toutes les vulnérabilités découvertes ont souvent fait la une des journaux et ont été largement médiatisées. Face à cette préoccupation croissante concernant le risque de piratage électoral, certains pays comme les Pays-Bas, qui utilisaient le vote électronique depuis longtemps, ont opté pour un retour à des procédures manuelles et au bulletin de vote papier. Aux États-Unis, le gouvernement fédéral a alloué des budgets de plusieurs milliards de dollars pour consolider l’infrastructure des machines à voter des États. Cependant, les critiques affirment que ces tests sont réalisés dans des conditions très éloignées de la réalité. Fait notable, à ce jour, on ne recense aucun cas de tentative de piratage des machines à voter pour manipuler les résultats des élections dans le monde.

L’opération est tellement complexe qu’elle pourrait expliquer pourquoi personne n’y est encore arrivé. Manipuler les résultats d’une élection n’est pas une mince affaire. Pour cela, il faut pirater plusieurs systèmes distribués hors ligne et, surtout, le faire sans être détecté. Le moindre soupçon pourrait entraîner une annulation immédiate du décompte, tandis que les copies papier de sauvegarde fournissent un moyen sûr de vérifier manuellement l’intégrité du vote. Cela pourrait expliquer pourquoi, à notre connaissance, personne n’a encore tenté de le faire. Mais cela ne veut pas dire que le système démocratique n’a pas été attaqué.

Avec le recul, il est clair que les attaques contre les systèmes électoraux démocratiques n’avaient pas nécessairement pour but de soutenir des candidats en particulier, mais plutôt de déstabiliser le système démocratique dans son ensemble. Les campagnes d’influence cherchent à exacerber les divisions au sein de la société ciblée (bien souvent en soutenant des extrémistes de tous bords) et ébranler la confiance dans la fiabilité du système électoral. C’est précisément le rôle que jouent les débats publics permanents et les questions relatives à la fiabilité des machines à voter. Affaiblir le système démocratique sert les intérêts à la fois des acteurs non démocratiques externes et internes. Sur le plan international, ils affaiblissent leurs adversaires, tandis qu’à l’échelle nationale ils utilisent des arguments pour leurs propres campagnes qui mettent en avant les défaillances de la démocratie occidentale, décourageant ainsi les aspirations locales à la démocratisation. Le message à retenir est simple : « Regardez tous ces hypocrites aux Etats Unis avec leur démocratie bancale, ce n’est vraiment pas un modèle à suivre ».

Avec le recul, les efforts continus pour identifier les vulnérabilités des machines de vote électroniques, dans le but de renforcer leur crédibilité et de soutenir le système démocratique, pourraient avoir eu involontairement l’effet inverse. Il est possible qu’ils aient effectivement fragilisé la confiance du public dans la sécurité de ces systèmes et dans la légitimité des résultats électoraux. Bien sûr, vérifier si les machines à voter sont fiables dans des situations artificielles (comme lors d’évènements comme les « voting villages » où l’accès est libre) peut être utile pour les conventions, les médias et l’industrie de la cybersécurité, mais il faut tout de même émettre des réserves. Beaucoup se demandent si les vulnérabilités identifiées sont vraiment exploitables, voire si elles sont ciblées par les adversaires, ou si les risques associés à ces vulnérabilités justifient la baisse de confiance du public dans les résultats des élections.

C’est peut-être ce constat qui a conduit la CISA (Cybersecurity and Infrastructure Security Agency) à repenser sa stratégie de communication. Plutôt que d’attirer constamment l’attention sur les vulnérabilités et les lacunes des machines à voter, la CISA a délibérément choisi de diffuser des messages positifs tout au long de l’année 2020, pour faire valoir la sécurité et la fiabilité du système de vote américain. Ce revirement de la position de la CISA a conduit à la destitution de son directeur, Chris Krebs, par le président Trump. Krebs a affirmé que ces élections avaient été les plus sécurisées de l’histoire des États-Unis, mais le président Trump a vivement contesté les résultats. Les événements du 6 janvier au Capitole en ont été le point d’orgue et ont entravé une passation de pouvoir pacifique. La boucle est bouclée puisque les responsables du « voting village » de la DEF CON décrivent désormais leur mission, en réaction aux théories du « Big lie », de la manière suivante : « lutter contre les théories du complot, la désinformation, les allégations sans fondement de piratage, les accusations de problèmes absurdes qui n’ont jamais existé ».

La chaîne FOX Network vient d’accepter de verser une indemnisation de 787 millions de dollars dans le cadre d’une action en justice intentée par Dominion, un fabricant de machines à voter. FOX était poursuivie pour avoir sciemment affirmé que les machines de Dominion avaient modifié les résultats de l’élection à faveur du président Biden.

Intelligence artificielle et textes automatisés

À l’approche des prochaines élections présidentielles en 2024, l’inquiétude grandit aux Etats Unis concernant l’utilisation possible de l’intelligence artificielle qui pourrait perturber le processus démocratique. Jusqu’à présent, l’IA était plutôt utilisée dans des campagnes d’influence pour élaborer et adapter des contenus spécifiques à des audiences ciblées. Mais la nouvelle vague technologique pourrait générer automatiquement des contenus personnalisés. Elle suscite des inquiétudes quant à son influence sur le discours public.

Le scandale Cambridge Analytica, qui a éclaté en 2018, concernait l’utilisation non autorisée de données concernant des utilisateurs de réseaux sociaux. Ces informations ont servi à créer des profils d’électeurs et diffuser du contenu spécifiquement adapté aux convictions des individus ciblés, pour en faire des outils de persuasion plus efficaces. L’obstacle principal majeur auquel se heurtent ces opérations d’influence était le coût lié à l’élaboration du contenu. Il fallait en effet des créateurs de contenu humains bien au fait de la langue, de la culture, de la politique et de la psychologie du pays ciblé. Or, les nouvelles technologies de l’IA éliminent cette contrainte et proposent un contenu personnalisé et rentable. Depuis que ChatGPT a été lancé fin 2022, la création automatique de textes personnalisés est devenue plus facile d’accès. Actuellement, vous pouvez définir des paramètres de conversation spécifiques tels que l’âge, le sexe et la situation géographique, ainsi que des objectifs qui sont automatiquement introduits dans l’API. Vous obtenez ainsi un texte personnalisé percutant et convaincant qui vous permet d’atteindre le résultat escompté. Ce résultat peut être utilisé pour générer des conversations détaillées entre l’IA et la personne ciblée. Il existe déjà des chatbots de ce type dans le commerce, pour le service client par exemple.

Mais la vraie révolution, c’est la capacité à produire ce contenu personnalisé à grande échelle et à faible coût. La qualité du texte est devenue telle que l’historien Yuval Noah Harari parle de « piratage des humains », c’est-à-dire de la capacité de l’IA à anticiper et à manipuler nos sentiments, nos pensées et nos choix au-delà de notre propre compréhension.

Dans le contexte des élections, les chercheurs ont proposé un scénario hypothétique dans lequel les systèmes d’IA, appelés « Clogger et Dogger », travaillent aux deux extrémités du spectre politique pour optimiser l’utilisation des méthodes de microciblage et de manipulation du comportement. Ces chercheurs mettent en garde contre la possibilité que les futurs débats politiques puissent se vider de leur sens. La conversation entre les bots et les électeurs risque de ne plus aborder de questions politiques pertinentes. Elle peut plutôt servir à détourner l’attention du message d’un adversaire ou d’autres sujets de discussion importants. En outre, il est important de noter que les systèmes d’IA actuels ne sont pas nécessairement exacts, mais qu’ils génèrent un contenu qui correspond aux objectifs qui leur ont été assignés. Dans le cas d’un tel scénario, les vainqueurs d’une élection s’imposeraient non pas parce que leur position politique ou leur message aurait trouvé un écho auprès des électeurs, mais parce qu’ils auront pu, moyennant finance, exploiter ce système performant à leur avantage.

Ainsi, sans recourir à la censure ou à la coercition, l’élément fondamental des élections démocratiques, un environnement où les opinions circulent librement, risquerait d’être compromis. Dans la mesure où les nouveaux élus n’ont pas été choisis pour leurs idées, il est logique qu’ils ne se pressent pas à mettre œuvre leurs politiques. Ils pourraient même continuer à utiliser « Clogger » ou « Dogger » pour prendre des décisions politiques qui maximisent leurs chances de se faire réélire.
L’IA et les faux documents audiovisuels

Parmi les implications les plus importantes de la technologie émergente de l’IA, on peut citer sa capacité à créer de faux enregistrements vocaux et vidéo. La limite entre les faits réels et les faits inventés risque de brouiller devant cette nouvelle donne. L’inquiétude est palpable, avec ce genre d’outils faciles à obtenir et peu chers. Il est fort à craindre que distinguer le vrai du faux (s’agit-il d’informations légitimes ou deep fakes ?), deviennent presque impossible, surtout dans le domaine de la politique. Même si elle a initialement servi à des escroqueries telles que le vol d’identité, cette technologie a déjà été exploitée à des fins politiques. Lors des dernières élections municipales à Chicago, on peut citer un cas concret où un faux audio a été diffusé. Il semblait faire croire que le candidat Paul Vallas soutenait les violences policières. Vous trouverez également en ligne d’autres enregistrements de ce type dans lesquels on entend Elizabeth Warren ou le président ukrainien Volodymyr Zelensky. Le Comité national républicain a réalisé une vidéo à l’aide d’une IA qui dépeint des scènes dystopiques fictives sous le mandat de Joe Biden. Cette vidéo soulève des questions quant à sa singularité : quelle est la différence avec les productions hollywoodiennes habituelles et leur utilisation dans le cadre de campagnes politiques ? La vrai nouveauté, c’est que ces outils technologiques sont désormais à la portée de tous. D’où l’inquiétude grandissante quant à leur utilisation inappropriée en politique.

Les récentes avancées de l’IA, la capacité de créer des textes personnalisés et d’engager des dialogues microciblés qui pourraient rendre les discussions dépourvues de fondement factuel, ainsi que la création et la diffusion de « deep fakes », ont des implications considérables dans les processus démocratiques.

Ces pratiques vont à l’encontre du principe fondamental des élections qui repose sur un débat ouvert et constructif d’idées et d’opinions. Elles touchent le cœur même de la communication humaine et notre capacité à mener des débats francs et pertinents avant les élections.

Relever le défi immédiat de l’IA

Il convient de souligner que, contrairement aux défis technologiques précédents qui trouvaient leur solution dans la technologie même, ces nouveaux défis remettent en question quelque chose de plus fondamental : notre rapport à la vérité. Les questions qui se posent aujourd’hui sont complexes et relèvent davantage de la philosophie et de la morale que de la technologie. Ces questions épistémologiques concernent la nature de la connaissance, la fiabilité des sources de données, la réputation des personnalités publiques et la manière même dont nous appréhendons la réalité. Ces défis redessinent le paysage du débat politique, remettent en question l’authenticité de l’information et requièrent une nouvelle approche des valeurs fondamentales de la communication et de l’intégrité dans le processus démocratique.

Pour relever efficacement ces défis, il est nécessaire de faire appel à la coopération de multiples parties prenantes. Dans un premier temps, les fournisseurs d’IA doivent agir de manière proactive pour empêcher l’utilisation abusive de leurs processus, et les régulateurs doivent réévaluer et mettre à jour les principes directeurs. La société dont nous faisons partie doit entamer une réflexion approfondie sur les subtilités de la liberté d’expression et sur notre comportement à l’ère numérique.

La première condition pour juger une information est de comprendre le contexte dans lequel elle est présentée. Pour ce faire, il faut comprendre l’origine de l’information, l’identité et les motivations de celui qui l’a partagée. C’est pourquoi certaines initiatives insistent sur l’importance de divulguer ces renseignements en même temps que l’information. En ce qui concerne les conversations avec des chatbots, certains observateurs conseillent de préciser qu’il s’agit clairement d’IA. Il existe aussi un appel à clarifier les intentions de l’IA, éventuellement en révélant l’invite qui a été faite à l’agent d’IA. Fung & Lessig, dans l’exemple de « Clogger », proposent quelque chose du genre : « Le Comité Sam Jones pour le Congrès vous envoie ce message généré par l’IA parce que selon les prévisions de Clogger, cela augmentera vos chances de voter pour Sam Jones de 0,0002 %. » Yuval Harari soulève une question concernant la participation de l’IA au discours politique : le premier amendement garantit la liberté d’expression des êtres humains. Cette liberté concerne-t-elle aussi l’IA ? Plus on intègre l’IA dans les processus de pensée (comme la tentative de se servir de ChatGPT pour écrire cet article, avec des résultats mitigés), plus il devient difficile de distinguer l’origine d’un texte ou d’une idée. Il est indispensable de faire appliquer la loi, car compter sur la capacité d’un simple individu pour identifier la fiabilité d’une source s’est avéré inefficace.

À défaut d’interdire la participation de l’IA au débat public, il est évident que la responsabilité du contenu produit par l’IA incombe aux utilisateurs et aux développeurs. Ce sera à la justice de préciser la délimitation exacte. Cela se fera par le biais d’un dialogue entre les régulateurs et ceux qui interprètent les réglementations.

Il existe d’autres points de tensions entre le droit à la liberté d’expression et la quête de la vérité. Jusqu’à présent, la priorité a été donnée à la liberté d’expression. Que ce soit les dix commandements ou la loi américaine, aucun d’entre eux ne considère le mensonge comme une infraction. Tom Wheeler, ex-président de la FCC[1], a révélé la triste réalité : on a le droit de mentir, a fortiori en politique. Citons comme exemple récent une décision prise en 2012 par la Cour suprême des États-Unis, qui a fait annuler une loi interdisant de donner de faux antécédents militaires. En Californie, un candidat local a été pris en flagrant délit alors qu’il prétendait avoir reçu une médaille, mais la Cour suprême a jugé que le premier amendement prévalait, et que dans les faits, on ne pouvait pas bannir le mensonge du débat public. Au risque de brouiller les cartes entre information et manipulation, il serait bon de réfléchir à l’équilibre entre ces deux valeurs.

Devrait-il y avoir des conséquences pénales pour quiconque crée intentionnellement des fichiers audio, des images ou des vidéo dans le but de falsifier la réalité ? La fiabilité dans notre discours public est susceptible de jouer un rôle fondamental à l’avenir. La source et le contexte deviennent primordiaux dans une réalité où il est de plus en plus difficile d’identifier le vrai du faux. Dans ce contexte, la crédibilité d’une personne et d’une source d’information revêt une importance capitale. Lorsque la vérité est en danger, ne plus tolérer les mensonges et les manipulations a un effet dissuasif. Les hommes politiques qui se targuaient autrefois de mentir ouvertement pourraient bientôt voir leur réputation changer. La crédibilité et une réputation solide sont désormais des atouts précieux. Il est donc essentiel que les politiciens doivent rendre des comptes s’ils mentent.
Médias et solutions technologiques

Dans un contexte où les médias traditionnels font face à la montée en puissance des réseaux sociaux, on pourrait les voir reprendre le devant de la scène. En quête de sources fiables, les gens pourraient se tourner vers les médias traditionnels qui eux mettent davantage l’accent sur la vérification rigoureuse des faits, les normes éditoriales et la responsabilité. Le développement de projets destinés à contextualiser plus largement les informations prendra de plus en plus d’importance.

Plusieurs initiatives consacrées à l’identité de la source pourraient marquer le début d’une nouvelle tendance. WorldCoin, présenté par Sam Altman d’OpenAI, est une plateforme d’identification numérique dont l’objectif est de fournir aux gens un moyen de vérifier qu’ils ont affaire à de vrais humains. Malgré les critiques adressées à Twitter, ses initiatives visant à promouvoir la vérification des comptes avec la coche bleue et d’autres dispositifs vont dans le même sens. Une solution pertinente pourrait consister à augmenter le coût des signaux, ce qui les rendrait plus difficiles à falsifier et, par conséquent, plus fiables. Un abonnement mensuel à Twitter constitue ce type de coût et pourrait freiner la création de réseaux de milliers de bots. Un autre moyen d’augmenter le coût du signal serait de préférer les événements réels aux événements virtuels, comme cela a été observé avec le succès des grands rassemblements pendant les campagnes électorales.
Trop de mises en garde risquent d’aggraver la situation

Jusqu’à présent, nous avons analysé les dangers liés aux capacités de l’IA et les moyens de les maîtriser. Néanmoins, la multiplication des mises en garde risque d’exacerber le problème. De la même manière que la surenchère sur les vulnérabilités des machines à voter a pu, par inadvertance, fragiliser la cohésion démocratique en ébranlant la confiance du public dans les mécanismes de vote, nous pourrions être confrontés à une menace similaire avec l’IA.
Conclusion

Il faut garder à l’esprit que notre connaissance de la réalité n’est que partielle et que les manipulations, les déformations rhétoriques et les mensonges ne datent pas de l’ère de l’intelligence artificielle. On retouchait déjà les portraits du temps d’Abraham Lincoln. Il est fort probable d’ailleurs que le lecteur de 2023 ne soit pas plus au fait de l’actualité qu’à une époque où les « nouvelles » étaient rarement à jour et où il était beaucoup plus difficile de vérifier la véracité des faits. Lorsque l’on analyse les exemples d’utilisation abusive de l’IA, on constate qu’elle est encore loin d’influencer notre perception de la réalité et de la politique.

Selon nous, il existe une baisse de confiance dans le débat public et nous craignons que des mises en garde excessives puissent la fragiliser davantage. À notre avis, c’est là que pourrait se situer le réel danger : bien avant que les nouvelles technologies ne nous déconnectent de la réalité, ce sont les craintes et les alertes elles-mêmes qui risquent de créer une perte de confiance dans l’appareil démocratique. Il est essentiel de réaliser que le discours public, qui n’a jamais été exempt de partialité absolue ni de conformité totale à la vérité, n’a pas encore subi de grands changements. Mais si la confiance dans le système électoral et ses résultats venait à se fissurer, les candidats perdants risquent d’être plus réticents à admettre leur défaite et d’entraver la passation de pouvoir.

— -


Voir les articles précédents

    

Voir les articles suivants