X

Deepfakes, désinformation et créativité : trois enjeux dans l’éducation à l’IA

Laurence Dierickx

2025-10-07

L’intelligence artificielle regroupe un ensemble de technologies qui influencent de manière croissante les pratiques sociales, culturelles et médiatiques. Elle est déjà présente dans la vie quotidienne des jeunes, souvent de manière discrète : dans les réseaux sociaux, les moteurs de recherche, les outils de création ou les jeux. Son intégration dans les environnements éducatifs soulève des enjeux importants, qui ne se limitent pas aux aspects techniques. Elle interroge notre capacité à distinguer le vrai du faux, à vérifier l’information, et à penser la création dans un monde où les machines peuvent générer des contenus.

Les technologies de manipulation visuelle, comme les deepfakes, rendent floue la frontière entre réalité et fiction, avec des conséquences sur la confiance dans l’information, la sécurité et les processus démocratiques. Le fact-checking, devenu une pratique essentielle face à la désinformation, se heurte à des limites structurelles, tout en nécessitant des compétences spécifiques et une approche interdisciplinaire. Enfin, les usages créatifs de l’IA posent des questions sur l’originalité, l’intention et la valeur des œuvres, tout en redéfinissant les métiers artistiques et les imaginaires culturels.

Enjeux des deepfakes

Dès lors que les limites entre réalité et fiction deviennent de plus en plus floues, il devient difficile de distinguer ce qui est authentique de ce qui a été manipulé. Cette confusion ouvre la voie à diverses formes d’escroqueries, notamment financières, où des vidéos truquées peuvent être utilisées pour usurper une identité ou tromper des victimes. Les arnaques sentimentales ou tentatives d’escroquerie financières exploitant l’image de personnalités exploitent également ces technologies pour créer de faux profils crédibles et manipuler émotionnellement. Les deepfakes peuvent aussi porter atteinte à la réputation de personnes ou d’organisations, en diffusant des contenus falsifiés.
Les deepfakes peuvent encore être utilisés pour manipuler l’opinion publique, influencer des débats, semer le doute, et même perturber des processus démocratiques, en particulier lors des périodes électorales. À une échelle plus large, ils représentent donc une menace potentielle pour la sécurité nationale, en facilitant la propagation de fausses informations susceptibles de créer des tensions ou des conflits.
Pour les journalistes et les médias, la vérification de l’authenticité des contenus face aux deepfakes constitue un défi majeur, et cela d’autant plus que des technologies en constante évolution rendent la détection de plus en plus difficile. Cette difficulté est accentuée par le caractère multimodal des deepfakes, qui peuvent combiner plusieurs types de médias — vidéo, audio, image — et ainsi échapper aux méthodes de détection traditionnelles.

Bien que les outils de détection progressent en sophistication, ils restent imparfaits. Certains contenus manipulés par des techniques émergentes ou particulièrement élaborées échappent encore à leur vigilance. De plus, les résultats produits peuvent être ambigus, ce qui complique leur interprétation dans un contexte journalistique. Une confiance excessive dans ces outils peut s’avérer problématique : elle risque de laisser passer des contenus falsifiés (faux négatifs) ou, à l’inverse, de rejeter des contenus authentiques (faux positifs). C’est pourquoi ces technologies doivent être considérées comme des aides ponctuelles, intégrées dans une démarche de vérification rigoureuse et plurielle où les efforts de vérification ne se concentrent pas que sur la forme mais aussi sur le contenu, le message véhiculé.

Enjeux du fact-checking

Le fact-checking est une pratique essentielle dans un environnement informationnel saturé et souvent manipulé. Cela consiste à vérifier des informations après qu’elles aient été diffusées, contrairement au journalisme où l’information doit être vérifiée avant d’être publiée.

Le fact-checking fait face à plusieurs défis majeurs. Premièrement, la formation initiale et continue des journalistes reste insuffisante alors que les compétences nécessaires évoluent rapidement. Ceux-ci doivent maîtriser la recherche en source ouverte, les techniques d’enquêtes numériques intégrant tous les types de médias, et se tenir constamment à jour des évolutions technologiques.

Le financement est également limité et dépend en grande partie des fonds publics et des plateformes numériques. À l’échelle européenne, le fact-checking est financé notamment par des programmes publics et des fonds européens En parallèle, les grandes plateformes comme Meta et Google financent aussi le fact-checking, mais ce soutien est généralement réservé aux organisations reconnues comme crédibles et indépendantes. Cette coopération vise à renforcer la lutte contre la désinformation tout en maintenant des critères éthiques élevés.

En outre, le Digital Services Act (DSA) introduit des obligations spécifiques pour les plateformes en matière de détection, de transparence et de lutte contre la désinformation. Elles doivent notamment fournir des outils et des informations permettant de mieux comprendre et contrôler les contenus en ligne, incluant le renforcement des coopérations avec des fact-checkers reconnus.

Cependant, malgré ces financements, le fait que ce modèle reste partiel explique pourquoi le fact-checking organisé demeure peu développé dans certains contextes francophones, comme en Belgique francophone, où seul le service public RTBF propose une plateforme dédiée, Faky.

Ainsi, la consolidation des compétences et un financement plus stable à différents niveaux sont indispensables pour répondre aux exigences croissantes liées à la vérification de l’information dans un environnement numérique, multimodal, et en constante évolution

De plus, si les techniques de désinformation ne sont pas neuves, elles s’appuient désormais sur des technologies plus sophistiquées, amplifiées par les algorithmes et parfois générées par l’IA. Cela suppose une compréhension fine des outils numériques, de leurs capacités mais aussi de leurs limites. Les IA génératives et leurs hallucination artificielles ajoutent une couche supplémentaire. Dans ce contexte, cultiver l’esprit critique est plus que jamais nécessaire : apprendre à lire attentivement, à vérifier les sources, à questionner les contenus.

La désinformation circule souvent plus rapidement que les efforts de vérification, et même lorsqu’une information erronée est démentie, elle continue à se propager dans les réseaux. Ce phénomène met en lumière les limites du fact-checking, dont l’impact réel reste difficile à mesurer. Par ailleurs, cette pratique est parfois perçue comme partisane par certains publics, ce qui peut paradoxalement renforcer la polarisation et fragiliser la confiance dans les médias.

L’usage de l’intelligence artificielle dans le fact-checking ouvre de nouvelles perspectives, mais soulève également des questions éthiques. Si l’IA peut accélérer la détection de la désinformation, elle peut aussi introduire des biais, notamment si les modèles ne sont pas correctement encadrés ou transparents. Il est donc essentiel de considérer ces outils comme des appuis techniques, intégrés dans une démarche critique et humaine de vérification.

Enjeux des usages artistiques et créatifs de l’IA

L’IA ne crée pas comme un humain : elle reproduit des patterns, des motifs de langage existants, sans intention ni sens, ce qui limite l’innovation véritable. Elle peut entraîner une standardisation du langage et des idées, et reproduire des biais ou des stéréotypes présents dans les données d’entraînement. La pensée humaine se concentre sur des processus cognitifs, émotionnels et contextuels complexes (ex: prise de décision, créativité, émotions). Tandis que l’IA tente de reproduire des fonctions spécifiques de l’intelligence humaine en utilisant des calculs et des modèles logiques.

Les usages de l’IA dans les processus créatifs peuvent aussi affaiblir les capacités créatives humaines, en favorisant une dépendance aux outils automatisés. Ils posent des questions d’authenticité, de valeur artistique, et de propriété intellectuelle : qui est l’auteur d’une œuvre générée par IA ?

L’IA transforme les pratiques créatives en exigeant de nouvelles compétences et en redéfinissant certains rôles. Elle permet notamment d’automatiser des tâches répétitives, libérant ainsi du temps pour la réflexion artistique et la conceptualisation. Elle contribue également à démocratiser l’accès à des outils auparavant complexes, ouvrant de nouvelles possibilités à des publics moins familiers avec les technologies de création.

Cependant, cette transformation pose des défis éthiques et techniques, comme la question de la place de l’intention humaine dans la création, les droits d’auteur, la standardisation esthétique, et la qualité des œuvres générées. Aussi, l’IA représente à la fois une menace et une opportunité pour l’emploi dans les métiers créatifs.

Par ailleurs, l’IA ne remplace pas la créativité humaine, mais la redéfinit en instaurant une collaboration homme-machine, où l’humain garde un rôle critique, notamment dans l’originalité, la pensée critique et la compréhension culturelle. Elle interroge aussi la réception des œuvres par le public : comment percevoir une création sans intention humaine ?

#