X

[Analyse]  Les paradoxes de l’IA dans le contexte des désordres informationnels

Laurence Dierickx

2025-11-22

Si les techniques de persuasion ne sont pas nouvelles, leur automatisation, leur multiplication et leur personnalisation via les technologies numériques constituent une intensification inédite.

Photo de Hồng Thắng Lê: https://www.pexels.com/fr-fr/photo/33720687/

La manipulation de l’information n’est pas une invention de notre époque. Elle est aussi ancienne que les sociétés humaines elles-mêmes, et s’est manifestée sous des formes diverses selon les contextes historiques, culturels et politiques. Dès l’Antiquité, cette pratique était théorisée et codifiée. En Grèce, Aristote, dans sa Rhétorique, analysait les moyens de persuasion, les figures de style et les effets de discours sur les émotions du public, qui sont autant d’outils mobilisables pour orienter l’opinion.

Historiquement, la désinformation a d’abord été un outil militaire, utilisé pour tromper l’ennemi et obtenir un avantage stratégique. On peut citer, par exemple, la bataille de Qadesh en 1274 av. J.-C., où le pharaon Ramsès II aurait diffusé de fausses informations sur ses troupes pour désorienter les Hittites, un peuple vivant en Anatolie centrale, l’actuelle Turquie. Plus près de nous, les deux guerres mondiales ont vu se développer des techniques de propagande d’État, de censure, de désinformation ciblée et d’agents doubles.

Un exemple emblématique est l’opération Fortitude, menée par les Alliés pendant la Seconde Guerre mondiale. Cette opération visait à faire croire aux forces allemandes que le débarquement aurait lieu dans le Pas-de-Calais, et non en Normandie. Pour cela, les Alliés ont mobilisé un arsenal de ruses : faux équipements militaires, transmissions radio truquées, agents doubles, et même un faux général Patton à la tête d’une armée fictive. Cette opération a joué un rôle crucial dans le succès du Débarquement du 6 juin 1944.

Ces faits historiques montrent que la manipulation de l’information a toujours été un levier de pouvoir, mobilisé par des figures d’autorité pour orienter les croyances et les comportements. C’est dans cette continuité que s’inscrit la propagande, une forme particulière de communication stratégique visant à influencer l’opinion publique à des fins politiques, idéologiques ou militaires. La propagande russe née sous Lénine dans le sillage de la révolution bolchévique illustre bien ce phénomène, utilisant les affiches, la presse et l’ensemble des moyens de communication de masse de son époque pour produire une vérité officielle.

Techniques d’influences

La rumeur et la propagande sont devenues un objet d’études au cours de la première moitié du 20e siècle. On considère alors la rumeur sous l’angle d’un symptôme social, révélateur des tensions, des fractures et des imaginaires d’une époque. Elle n’est pas simplement une fausse information : elle est aussi une expression collective de ce qui inquiète, de ce qui ne peut être dit ouvertement, ou de ce qui échappe à la parole officielle.

La propagande, quant à elle, est cadrée comme une technique de manipulation de masse d’une efficacité redoutable. Elle n’est pas seulement utilisée pour faire passer un message, mais aussi pour façonner les émotions collectives, saturer l’espace public, réécrire l’histoire, et construire un imaginaire cohérent avec les objectifs de son émetteur.

Les techniques de persuasion et de manipulation fonctionnent parce qu’elles exploitent nos émotions, nos réflexes, nos biais cognitifs. Déjà dans les années 1930, des figures comme Joseph Goebbels en Allemagne nazie ont systématisé des techniques de manipulation de masse d’une efficacité redoutable. Il le disait d’ailleurs très clairement : pour convaincre les foules, il faut toucher le cœur avant de toucher la raison. Il faut susciter la peur, entretenir la haine, flatter l’orgueil national, créer un sentiment d’unité face à un ennemi désigné.

L’émotion, la répétition, la polarisation et la saturation sont aujourd’hui les ressorts fondamentaux des désordres informationnels. Ces dynamiques ont pris une ampleur inédite dans l’écosystème numérique contemporain, où les logiques de viralité prennent très largement le dessus sur celles de la vérification. Ce n’est pas la qualité du contenu qui détermine sa portée, mais sa capacité à faire réagir. Une rumeur bien formulée, une image sortie de son contexte, ou un récit simpliste mais émotionnellement puissant peuvent désormais franchir les frontières et influencer des millions de personnes en quelques heures, là où autrefois, il fallait des jours, des semaines, et une infrastructure lourde pour toucher un public de masse.

Les multiples visages des désordres informationnels

Aujourd’hui, on entend par « désordres » ou « troubles » informationnels un ensemble de phénomènes qui perturbent la circulation, la réception et la compréhension de l’information dans l’espace public. Ils englobent plusieurs formes de manipulation ou de déformation de l’information. En premier lieu, la mésinformation désigne la diffusion involontaire d’informations erronées, souvent due à une mauvaise compréhension ou à une erreur de vérification. Par exemple, il peut s’agir de partager une fausse information sans savoir qu’elle est fausse. D’autre part, la désinformation est relative à la diffusion intentionnelle d’informations fausses ou trompeuses dans le but de manipuler, nuire. Elle est souvent utilisée dans des campagnes de propagande politique pour influencer l’opinion publique. Enfin, la malinformation se rapporte à une utilisation d’informations véridiques mais sorties de leur contexte pour nuire.

Parmi les multiples visages de la désinformation contemporaine, les théories du complot occupent une place à part. En psychologie sociale, elles sont définies comme l’explication de faits historiques ou d’événements par une action coordonnée, intentionnelle et dissimulée d’un groupe malfaisant. Ces récits ne relèvent pas simplement de la fiction : ils répondent à des besoins cognitifs et affectifs profonds. Ils permettent de réduire l’incertitude, de désigner un responsable, et de renforcer une identité collective face à une menace perçue. En période de crise, lorsque les repères s’effondrent et que la confiance envers les institutions vacille, ces récits trouvent un terreau fertile.

Lors de la pandémie de Covid-19, plusieurs théories du complot se sont imposées dans l’espace public. L’une des plus répandues liait la technologie 5G à la propagation du virus, affirmant que les antennes déployaient ou renforçaient la maladie. Des allégations fausses ont circulé autour des vaccins, affirmant qu’ils contenaient des micro-puces pour surveiller la population, ou qu’ils augmentaient le risque de contracter le virus. Ces récits ont freiné la campagne vaccinale et renforcé les mouvements antivax.

Les théories du complot ont une logique commune : elles simplifient le débat, détournent l’attention des explications validées, fragmentent le consensus social, et alimentent la méfiance envers les sources légitimes. Elles sont des instruments puissants de désinformation, capables d’influencer les perceptions, de polariser les débats, et de freiner les réponses collectives aux crises contemporaines.

Les faits alternatifs sont également un concept central dans l’analyse des désordres informationnels. Ils ont été popularisés durant le premier mandat présidentiel de Donald Trump. Ce sont des affirmations qui ne sont pas universellement admises comme vraies, mais qui sont redéfinies en fonction de croyances personnelles ou d’intérêts politiques. Ce qui caractérise les faits alternatifs, ce n’est pas leur véracité objective, mais la manière dont ils sont perçus, acceptés et défendus par certains groupes. La croyance dans ces faits repose moins sur l’exactitude des données que sur l’émotion, l’affect, et la confiance accordée à l’émetteur.

L’assaut du Capitole, le 6 janvier 2021, est l’une des illustrations les plus marquantes de cette dynamique. Pendant des semaines, Donald Trump avait alimenté l’idée que l’élection présidentielle lui avait été volée, malgré l’absence de preuves.

Pour ses partisans, cette croyance était devenue une vérité alternative : Joe Biden n’était pas un président légitime, et il était de leur devoir d’« arrêter le vol » en empêchant la certification des résultats électoraux par le Congrès. Ce récit a été amplifié par des médias comme Fox News, certaines chaînes YouTube, et de nombreux forums en ligne. Dans ces espaces, les allégations de fraude électorale étaient non seulement acceptées, mais considérées comme des vérités indiscutables.

Par définition, la propagande désigne un ensemble d’activités et de techniques de communication délibérées, utilisées de manière systématique par des acteurs investis de pouvoir pour influencer les attitudes, les opinions, les croyances et les comportements d’un public cible. Elle vise à promouvoir une idéologie, à légitimer un groupe ou une cause, et à orienter les représentations du réel. Son objectif n’est pas seulement de convaincre, mais souvent de créer la confusion entre ce qui est vrai et ce qui est faux. Il ne s’agit donc pas simplement de mentir, mais de désorganiser le rapport à la vérité.

Lorsqu’on évoque le terme de propagande aujourd’hui, on pense immédiatement à la propagande russe, notamment dans le contexte de la guerre en Ukraine. Mais il serait réducteur de la limiter à ce seul exemple. La Chine, par exemple, déploie une propagande d’Etat particulièrement sophistiquée, à la fois sur son territoire et à l’international. A travers la censure, le contrôle des réseaux sociaux et la surveillance des médias, le Parti communiste chinois façonne un récit où la stabilité, la prospérité et l’unité nationale priment sur toute critique. Ceci illustre bien le fait que dans le contexte numérique, les stratégies de propagande sont amplifiées par les algorithmes, les réseaux sociaux et les technologies de l’intelligence artificielle, qui permettent de cibler les publics, de personnaliser les messages, et de diffuser massivement des contenus orientés.

L’intelligence artificielle, un agent amplificateur

Toutes ces formes de manipulation, qu’elles soient locales ou transnationales, s’inscrivent dans un paysage informationnel profondément transformé par les technologies numériques. Parmi elles, l’intelligence artificielle occupe une place centrale. Il s’agit d’un terme souvent utilisé de manière large, parfois imprécise, alors qu’il recouvre un ensemble de technologies qui ont en commun la capacité à automatiser des tâches et à prendre des décisions, souvent en imitant certains processus cognitifs humains.

L’intelligence artificielle désigne ainsi des systèmes informatiques capables d’exécuter des fonctions traditionnellement associées à l’intelligence humaine : apprendre, raisonner, résoudre des problèmes, comprendre le langage naturel, percevoir visuellement, planifier ou encore créer. Elle implique des mécanismes d’apprentissage automatique, qui permettent aux machines d’améliorer leurs performances à partir de données, sans être explicitement programmées pour chaque tâche.

Selon le Parlement européen, l’IA peut être définie comme tout outil utilisé par une machine capable de reproduire des comportements liés aux humains, tels que le raisonnement, la planification ou la créativité. Cette définition souligne que l’IA ne se limite pas à des robots ou à des assistants vocaux : elle est présente dans les algorithmes de recommandation, les systèmes de traduction, les moteurs de recherche, les plateformes de modération, et bien sûr, dans les technologies génératives.

Systèmes de recommandation et réseaux sociaux

On pense assez peu aux mécanismes des systèmes de recommandation sur les plateformes commerciales comme Amazon, alors qu’ils jouent un rôle central dans ce que nous voyons et consommons. Un système de recommandation utilise des algorithmes d’intelligence artificielle pour analyser les données des utilisateurs et proposer des suggestions personnalisées. Concrètement, il transforme les informations sur nos comportements, nos recherches et nos achats en recommandations de contenu, de produits ou de services adaptés à nos préférences.

Mais ces algorithmes peuvent amplifier certains contenus en raison de biais intégrés, créer des chambres d’écho qui renforcent l’exposition à des idées similaires et limiter la diversité des points de vue, réduisant le pluralisme sur des sujets controversés. Une étude de Check First et AI Forensics menée en 2023 a démontré que, sur Amazon, 72% des résultats de recherche liés au mot-clé « Covid » incluaient des livres d’auteurs ayant déjà diffusé de la désinformation. Ainsi, ces systèmes de recommandation, conçus pour améliorer l’expérience utilisateur, peuvent devenir des vecteurs puissants de désinformation.

En ce qui concerne les réseaux sociaux, l’un des aspects les plus préoccupants réside également dans leurs mécanismes de recommandation. Ces systèmes utilisent des algorithmes d’intelligence artificielle pour analyser nos comportements, nos préférences et nos interactions, afin de nous proposer du contenu personnalisé. En théorie, cela améliore l’expérience utilisateur en facilitant l’accès à des informations ou à des produits qui nous intéressent. Mais en pratique, ils accélèrent la diffusion de désinformations.

Les algorithmes privilégient les contenus qui suscitent des réactions fortes, qu’il s’agisse de likes, de partages ou de commentaires. Les publications sensationnelles ou émotionnellement chargées ont donc plus de chances d’être mises en avant.  Ce processus crée ce qu’on appelle des bulles de filtre et des biais de confirmation : chacun est exposé principalement à des contenus qui confirment ses opinions existantes, tandis que les points de vue divergents sont marginalisés.

Cette amplification algorithmique sert de levier à des acteurs extérieurs cherchant à influencer l’opinion publique. Les campagnes de désinformation politique, les propagandes étrangères, ou les récits polarisants sont ainsi mis en avant par des systèmes qui optimisent l’engagement, sans se soucier de la véracité du contenu. Il ne faut pas perdre de vue que ces plateformes reposent sur une économie de l’attention où il s’agit de retenir l’internaute le plus longtemps possible, c’est ce qui justifie que les algorithmes soient conçus pour favoriser les contenus les plus engageants, souvent émotionnels ou polarisants, afin de maximiser le temps passé en ligne et les revenus publicitaires.

Moteurs de recherche, agrégateurs de contenus et assistants personnels

Les moteurs de recherche et les agrégateurs de contenu occupent une place centrale dans l’accès et la circulation de l’information en ligne mais leurs caractéristiques intrinsèques peuvent contribuer à l’amplification de campagnes de désinformation. Si l’on prend l’exemple de Google, le moteur de recherche explore le web, indexe les pages, puis les classe selon leur pertinence, en s’appuyant sur différents critères qui sont ceux de la qualité du contenu, la fiabilité des sources, la popularité du site ou encore l’expérience utilisateur.

En théorie, ce processus vise à offrir à chacun les informations les plus pertinentes et les plus fiables. En pratique, les biais algorithmiques persistent, et peuvent parfois amplifier la désinformation. Une recherche publiée en 2022 par Aslett et ses collègues a d’ailleurs mis en évidence un paradoxe intéressant : lorsqu’un internaute cherche à vérifier une information douteuse en ligne, il peut, au contraire, renforcer sa croyance dans cette fausse information. Ce phénomène s’explique par l’existence de ce qu’on appelle des « vides de données », des espaces où les résultats de recherche renvoient principalement à des sources de faible qualité, qui se citent et se confirment mutuellement. L’utilisateur a alors l’impression de trouver des preuves, alors qu’il navigue en réalité dans un écosystème fermé d’informations erronées.

Les agrégateurs de contenu, comme Google News ou MSN, reposent sur des logiques similaires. Ils collectent et reformatent des articles provenant de différentes sources pour les présenter sur une interface unique. Ce système permet une diffusion rapide de l’information, mais il reproduit aussi les biais médiatiques existants et peut accentuer la polarisation du débat public.

Les algorithmes, conçus pour privilégier les contenus les plus populaires ou engageants, ne font pas toujours la distinction entre ce qui est vrai et ce qui attire simplement l’attention.

Un exemple récent illustre bien cette vulnérabilité. Durant l’été 2024, un compte anonyme sur X a accusé Tim Walz, alors colistier de Kamala Harris, d’attouchements sexuels. L’information, totalement infondée, a été reprise par le Hindustan Times, avant d’être automatiquement relayée sur MSN par son système d’agrégation algorithmique. Cette chaîne de diffusion a donné à cette fausse information une apparence de légitimité, alors même qu’il s’agissait d’une opération d’ingérence russe dans la campagne électorale américaine.

En hiérarchisant la visibilité plutôt que la véracité, les moteurs de recherche et plateformes d’agrégation d’informations participent à l’amplification de récits manipulés, exploitant nos biais cognitifs et nos réflexes de confiance.

Les assistants vocaux personnels, comme Alexa, jouent également un rôle croissant dans notre accès à l’information, mais ils peuvent aussi, involontairement, contribuer à la diffusion de désinformation. Ces outils reposent sur des technologies d’intelligence artificielle, de reconnaissance vocale et de traitement du langage naturel. Ils interprètent les requêtes des utilisateurs et formulent des réponses à partir de vastes bases de données et de contenus en ligne. Si ces sources contiennent des erreurs, des biais ou des interprétations orientées, l’assistant les reproduit mécaniquement.

Alexa, par exemple, a déjà été épinglé pour avoir diffusé de fausses affirmations sur les dépenses de parlementaires britanniques, illustrant concrètement les risques de propagation de désinformation via un outil perçu comme neutre et objectif.

Les assistants vocaux ne procèdent pas à une vérification factuelle approfondie avant de répondre. Leur objectif est de fournir une réponse rapide, pas nécessairement la plus exacte.

Le cas des intelligences artificielles génératives

Dans l’esprit de nombreux citoyens, l’intelligence artificielle se confond aujourd’hui avec les IA génératives. Leur arrivée sur le marché, à la fin de l’année 2022 avec ChatGPT, a suscité un engouement considérable pour une technologie jusque-là peu connue du grand public. Mais derrière cette fascination se cachent des enjeux majeurs en matière de désinformation. D’une part, les données sur lesquelles ces systèmes sont entraînés peuvent contenir des biais, des erreurs ou des contenus problématiques. D’autre part, les modèles génératifs produisent parfois des textes cohérents et crédibles, mais factuellement faux, un phénomène que l’on appelle les « hallucinations artificielles ».

Les grands modèles de langage, qui sont l’une des applications d’IA génératives, sont entraînés sur des corpus massifs composés de sources très variées : publications d’utilisateurs, encyclopédies collaboratives comme Wikipédia, mais aussi blogs partisans, forums ou sites à forte charge idéologique. Cette diversité, si elle favorise la richesse linguistique, introduit également des biais importants dans les données d’apprentissage. Ces biais ne sont pas seulement reproduits. Ces biais qui sont à la fois culturels et linguistiques. Ils peuvent être amplifiés, produisant des réponses fausses ou biaisées.

Leur langage fluide, leur ton empathique et leur capacité à adapter leurs réponses aux attentes de l’utilisateur créent une illusion de compréhension et de dialogue. Cette anthropomorphisation, combinée à la flatterie implicite du discours personnalisé, installe un climat de confiance qui rend les utilisateurs plus réceptifs, et donc plus vulnérables à des contenus inexacts ou manipulés. Ce pouvoir de conviction, fondé non sur la vérité mais sur la vraisemblance, marque une rupture majeure dans la manière dont la désinformation peut aujourd’hui s’infiltrer dans nos échanges numériques.

L’intégration des modèles de langage dans les moteurs de recherche transforme lui aussi notre rapport à l’information. Des outils comme Google Gemini ou Perplexity proposent désormais non plus une simple liste de résultats, mais des réponses rédigées, sous forme de synthèse. Cette évolution facilite l’accès aux savoirs, mais elle soulève aussi de nouvelles questions quant à la fiabilité, la transparence et la qualité des contenus générés.

Ces moteurs de recherche dits « augmentés » présentent plusieurs fragilités majeures. D’abord, le problème du contexte : l’intention réelle de l’utilisateur peut être mal interprétée, ce qui fausse la réponse. Ensuite, le manque de transparence : on ignore souvent selon quels critères les sources sont pondérées, hiérarchisées ou écartées. Les algorithmes eux-mêmes peuvent introduire des biais, influençant subtilement la manière dont les résultats sont présentés. Par ailleurs, les synthèses produites ont tendance à sur-généraliser : elles gomment les nuances, les incertitudes, ou les contradictions entre sources.

La fiabilité des citations est un autre point critique. Une étude publiée au début de cette années a montré que plus de 60% des réponses générées par les moteurs de recherche basés sur l’IA contenaient des références incorrectes.

Enfin, ces systèmes peuvent également produire des contenus inexacts ou incohérents. C’est le cas, par exemple, de Gemini, qui a récemment généré des images et des réponses factuellement erronées, comme par exemple utiliser de la colle non toxique pour mieux faire tenir le fromage sur une pizza. Ce type d’erreur rappelle que la qualité des résultats dépend directement de la précision de la requête, mais aussi des ambiguïtés du langage lui-même.

La langue est par nature polysémique, et cette multiplicité de sens rend parfois difficile pour une IA de saisir l’intention réelle de l’utilisateur, ce qui peut conduire à des interprétations littérales ou absurdes.

D’une apparente neutralité à des instruments de désinformation

Les intelligences artificielles génératives ne sont pas neutres. Leur fonctionnement repose sur des choix techniques, éthiques et idéologiques qui influencent profondément les contenus qu’elles produisent. Ces systèmes sont façonnés par leurs données d’entraînement, leurs paramètres de conception, et les intentions de leurs développeurs. En ce sens, ils ne reflètent pas une vérité universelle, mais une vision du monde encodée dans leurs architectures.

Prenons l’exemple de ChatGPT, conçu pour éviter les dérapages et respecter un cadre de valeurs dominant. Ce modèle est programmé pour adopter un ton équilibré, modérer ses réponses sur les sujets sensibles, et prévenir la diffusion de discours haineux, discriminatoires ou violents. Cette prudence se traduit souvent par un langage diplomatique, voire par un refus de répondre à certaines questions. Pourtant, des études ont montré que ChatGPT présente un biais sous-jacent vers une vision plutôt progressiste ou libérale, hérité à la fois des corpus d’entraînement et des choix humains effectués lors de sa conception. Ce biais, bien qu’invisibles, ces biais peuvent orienter subtilement les réponses et les perceptions des utilisateurs.

À l’opposé, Grok, développé avec une supervision minimale, a été critiqué pour son usage de langage offensant, la diffusion de contenus politiquement biaisés et la propagation de discours haineux. Ce modèle puise dans des flux en ligne peu filtrés, ce qui le rend vulnérable aux récits trompeurs et aux théories du complot.

Un autre cas emblématique est celui de Deepseek, un modèle open source développé sous la supervision du Parti communiste chinois. Son architecture, conçue pour être économe en énergie et accessible aux développeurs, le rend attractif sur le plan technique. Mais il impose une censure stricte, évite les sujets sensibles, et surveille le comportement des utilisateurs conformément aux politiques de l’État. Les restrictions idéologiques sont intégrées au cœur du système, et le stockage des données sous juridiction chinoise soulève des inquiétudes majeures en matière de transparence et de protection des données.

Ces exemples montrent que les IA génératives ne sont pas de simples outils techniques : elles sont des dispositifs idéologiques, porteurs de visions du monde, de normes implicites et de logiques de pouvoir. Leur influence sur l’espace public ne dépend pas seulement de leur performance technique, mais aussi de leur orientation éthique, politique et culturelle. En ce sens également, les IA génératives influent sur l’accès aux connaissances et la qualité de l’information.

Les systèmes d’intelligence artificielle générative ne servent pas uniquement à produire du contenu créatif ou informatif. Ils sont aussi utilisés, de manière délibérée, comme instruments de désinformation et de propagande. Leur capacité à générer des textes, des images, des voix ou des vidéos crédibles à grande échelle en fait des outils redoutablement efficaces pour manipuler l’opinion publique.

Les deepfakes en sont l’exemple le plus connu : il s’agit de falsifications hyperréalistes de vidéos ou de voix, rendues possibles par des outils qui sont disponibles librement en ligne. Ces technologies permettent d’imiter parfaitement une personne, de lui faire dire ou faire ce qu’elle n’a jamais dit ou fait, brouillant ainsi les frontières entre vrai et faux.

Les modèles génératifs sont aussi capables de produire automatiquement des textes d’actualité, créant des vagues de fausses informations diffusées par des sites web ou des comptes automatisés. De la même manière, les images altérées peuvent servir de « preuves » visuelles trompeuses, renforçant l’impact émotionnel de récits mensongers.

Les bots conversationnels jouent un rôle central dans cette stratégie : ils propagent ces contenus de manière coordonnée sur les réseaux sociaux, créant l’illusion d’une opinion publique spontanée. Ce phénomène, connu sous le nom d’astroturfing, consiste à fabriquer artificiellement des mouvements d’opinion, souvent à des fins politiques ou géopolitiques.

Plusieurs enquêtes ont montré comment des sites web entiers, entièrement générés par IA, diffusent de fausses nouvelles sur des événements géopolitiques. Un audit mené par NewsGuard a révélé que dix des principaux outils d’IA générative avaient relayé, dans plus de 30% des cas, des récits de propagande pro-Kremlin. Ce biais provient en partie de leurs données d’entraînement, issues de sources déjà contaminées par la désinformation.

Les techniques de manipulation deviennent chaque jour plus sophistiquées, et leur détection, plus difficile. Nous entrons ainsi dans une ère où la désinformation ne se contente plus de falsifier les faits : elle simule la réalité elle-même, à travers des contenus fabriqués par des machines, mais conçus pour influencer les humains.

Partie du problème et partie de la solution

L’intelligence artificielle, bien qu’elle contribue à l’amplification de la désinformation, peut également jouer un rôle important dans sa détection et sa régulation. Ce paradoxe est au cœur des débats contemporains sur l’usage éthique et stratégique de l’IA dans l’espace public. On estime qu’au moins 50-60% du contenu en ligne est déjà généré par des systèmes d’intelligence artificielle, ce qui soulève des préoccupations croissantes quant à la qualité de l’information et à la prolifération de contenus trompeurs.

La sophistication croissante des médias synthétiques rend leur identification de plus en plus difficile, tandis que des acteurs malveillants exploitent les avancées technologiques pour inonder les canaux d’information de récits fallacieux L’intelligence artificielle possède une capacité redoutable à générer des contenus adaptés à des publics spécifiques, en fonction de leurs intérêts, de leurs croyances ou de leurs vulnérabilités. Pour les audiences, cette personnalisation rend la distinction entre le vrai et le faux particulièrement complexe, contribuant à un brouillage généralisé du paysage informationnel.

Pourtant, cette même technologie peut être mobilisée pour lutter contre les désordres informationnels.  De nombreux vérificateurs de faits à travers le monde utilisent déjà l’intelligence artificielle dans leur lutte quotidienne contre les désordres informationnels. L’IA permet d’identifier les acteurs de la désinformation, de comprendre les narratifs dominants et de suivre leur circulation dans les réseaux numériques. De nombreux outils utilisés par les vérificateurs de faits intègrent des technologies d’IA, comme Veridash, développé à l’Université de Bergen, qui consiste en un tableau de bord open source, centré sur l’utilisateur, vise à renforcer la vérification multimédia grâce à des technologies d’IA générative et d’analyse visuelle. Il s’inscrit dans une logique de collaboration entre expertise humaine et puissance computationnelle.

Ce projet illustre également le fait que la recherche dans ce domaine exige du temps, des ressources humaines et financières, ainsi qu’une capacité à suivre l’évolution rapide des modèles génératifs.

Eduquer à l’information et à la désinformation

La technologie n’est ni bonne ni mauvaise : elle est ce que les humains en font. L’intelligence artificielle n’a pas inventé la propagande, la manipulation ou les jeux d’influence. Mais l’évolution d’une société de l’information vers une société de la désinformation mérite que nous la comprenions et que nous développions des approches critiques. Cela commence par l’éducation, mais cela passe aussi par le soutien à la recherche, instrument essentiel pour la société. Mais il s’agit aussi de la responsabilité des acteurs politiques qui sont souvent les premiers vecteurs de désinformation et de propagande.

Dans le même temps, l’IA peut aussi devenir un outil de résistance. Comme toute technologie, elle est ambivalente. Elle peut tromper ; mais elle peut aussi aider à comprendre, cartographier, vérifier et reconstruire des repères. Ce qui compte, ce ne sont pas les outils mais les usages. Ce ne sont pas les modèles mais les intentions. Ce ne sont pas les algorithmes mais les choix éthiques et sociaux qui sous-tendent et encadrent ces technologies.