X

IA génératives et journalisme : une approche centrée sur les risques

Laurence Dierickx

2025-12-27

Ils ne peuvent pas être considérés comme fiables, exacts et sans biais, mais les journalistes expérimentent quotidiennement les grands modèles linguistiques (LLMs). S’ils peuvent être perçus comme ouvrant de nouvelles perspectives pour soutenir le processus journalistiques et éditorial, leurs usages ne sont pas sans risques. Une approche prudente envisage donc les LLMs comme des outils d’assistance qui ne peuvent se substituer au travail journalistique humain, nécessitant une attention particulière pour garantir la qualité de l’information.

Cette tentative de mise à plat des usages et d’analyse de risques s’inspire d’une approche fondée sur l’éthique conséquentialiste, visant à évaluer les usages en fonction de leurs conséquences sur la qualité de l’information.

Aide à la découverte d’histoires, à l’exploration de documents et à la recherche préliminaire

Niveau de risque : modéré à élevé

Les LLMs peuvent aider les journalistes à parcourir les sources d’information, les forums, les bases de données et les réseaux sociaux à la recherche de sujets émergents. Ils facilitent l’exploration de grands ensembles de documents en extrayant des entités, en détectant des modèles et en résumant le contenu, ce qui rend l’exploration et l’analyse préliminaire plus accessibles. Cependant, les risques sont ici importants. Les LLM ne « comprennent » pas les informations ; ils identifient plutôt des modèles de manière statistique, ce qui signifie qu’ils peuvent passer à côté d’informations essentielles, négliger des contradictions ou mettre en évidence des tendances superficielles. Des pistes d’enquête complexes pourraient être ignorées. Une dépendance excessive aux LLMs peut appauvrir les récits, introduire des biais ou conduire à des interprétations superficielles sans approche critique des sources.


Recherche et préparation d’interviews

Niveau de risque : faible à modéré

Les LLMs peuvent aider à réfléchir à des perspectives plus larges, notamment en compilant des notes, en suggérant des contacts avec des experts, en anticipant les questions d’interview ou en simulant des dialogues potentiels. Les principaux risques concernent les suggestions de questions obsolètes, incomplètes ou biaisées. De plus, comme les LLMs se contentent de reproduire des modèles plutôt que de générer des idées originales, ils doivent être considérés comme un instrument destiné à stimuler la créativité plutôt que comme une source d’idées novatrices. D’un point de vue plus pratique, l’utilisation des LLMs avec des informations sensibles ou confidentielles n’est pas recommandée pour des raisons de sécurité.


Rédaction et amélioration de l’écriture

Niveau de risque : modéré à élevé

Les LLMs peuvent aident à structurer des premiers jets d’article, à suggérer des titres et à explorer différentes variations stylistiques. Ils peuvent proposer rapidement plusieurs approches narratives, aidant ainsi les journalistes à passer plus rapidement de l’idée au contenu écrit. Cependant, le risque d’« hallucination » et autres bruits sémantiques — la fabrication non intentionnelle de contenus ne reposant sur aucun fait vérifié ou l’addition de contenus trompeurs — est un problème persistant. Les résultats générés par l’IA peuvent également refléter des préjugés, privilégier certains cadres de référence par rapport à d’autres ou ne pas offrir un récit équilibré. Déléguer un tâche rédactionnelle à un LLM, c’est prendre le risque de ne pas  garantir l’exactitude des faits, la cohérence et l’intégrité stylistique, à moins d’une supervision et validation humaine.


Vérification et édition

Niveau de risque : élevé

S’ils peuvent suggérer des pistes de clarification, repérer des incohérences ou identifier des éléments à vérifier, les LLMs ne peuvent en aucun cas être considérés comme des vérificateurs fiables. Ils ont tendance à inventer des citations, à déformer des faits ou à altérer subtilement le contexte des informations. Toute affirmation factuelle doit donc faire l’objet d’une vérification indépendante, à partir de sources primaires, de références fiables ou de témoignages directs. Dans ce cadre, la supervision éditoriale demeure indispensable. Loin de toujours faire gagner du temps, l’usage des LLMs peut même générer un surcroît de travail : les contenus produits à des fins de fact-checking nécessitent fréquemment un examen approfondi et des corrections supplémentaires. S’ils peuvent contribuer à l’évaluation des éléments recueillis, ils ne remplacent en aucun cas une vérification rigoureuse.


Edition finale, vérification linguistique

Niveau de risque : élevé

Les LLMs peuvent faciliter la révision et l’édition finale en vérifiant la grammaire, la ponctuation et le style. Toutefois, ils ont du mal à appréhender les aspects plus nuancés de la langue, en particulier lorsque le contexte est essentiel. Ils ne parviennent souvent pas à saisir pleinement la polysémie (mots ayant plusieurs significations) ou les homonymes (mots identiques mais ayant des significations différentes), ce qui peut entraîner des interprétations erronées ou des ambiguïtés. Leur manque de compréhension contextuelle signifie qu’ils peuvent passer à côté de la manière dont certaines expressions, idiomes ou terminologies spécifiques doivent être utilisés dans un contexte journalistique particulier. La révision humaine est donc indispensable pour s’assurer que le sens initial n’a pas été altéré et pour prévenir les erreurs susceptibles d’entraîner une confusion ou une mauvaise interprétation de l’article.


Publication et distribution

Niveau de risque : faible à modéré

Les LLMs peuvent aider à optimiser le contenu pour le référencement, à générer des titres accrocheurs, à créer des publications sur les réseaux sociaux et à rédiger des méta-descriptions, maximisant ainsi la portée et la visibilité des articles. Ici, les risques sont moindres, mais ils existent toujours, car les LLMs peuvent involontairement favoriser le sensationnalisme, les tactiques de clickbait, déformer le contexte d’un article ou créer du contenu inadéquat/halluciné. Par conséquent, une supervision éditoriale humaine est nécessaire pour garantir que les supports promotionnels restent fidèles à l’intégrité de l’article, en évitant les formulations trompeuses.


Engagement du public et analyse des commentaires

Niveau de risque : faible

Les LLMs peuvent résumer les commentaires des lecteurs, détecter les réactions émergentes et suggérer des sujets de suivi. Cela peut permettre aux journalistes de surveiller le sentiment du public sans avoir à passer au crible manuellement de grands volumes de commentaires. Cependant, une mauvaise interprétation par l’IA du sarcasme, de l’ironie ou du langage polarisé peut conduire à une évaluation erronée du sentiment du public. Ainsi, si les informations générées par l’IA peuvent être utiles, elles doivent être considérées comme des indications plutôt que comme des réponses définitives, les résultats générés devant donc être interprétés et exploités avec prudence.

 

Étape du processus Niveau Réduction des risques
Découverte d’histoires et recherche préliminaire Modéré à élevé – Vérification critique des informations
– Croisement et diversification des sources
– Considérer l’IA comme un point de départ
Préparation et recherche d’interviews Faible à modéré – Vérifier l’actualité et la pertinence des questions
– Reformulation humaine pour éviter les biais et stéréotypes
– Ne pas utiliser de données sensibles/confidentielles
Rédaction et amélioration de l’écriture Modéré à élevé – Supervision éditoriale systématique
– Vérification des faits
– Réécriture humaine pour maintenir une cohérence stylistique et narrative
Vérification et édition (fact-checking) Élevé – Confirmer chaque élément auprès de sources primaires fiables
– Ne pas considérer le LLM comme un vérificateur autonome
– Supervision humaine indispensable
Édition finale et vérification linguistique Élevé – Relecture humaine pour garantir le sens et la nuance
– Contrôle des ambiguïtés (homonymes, polysémie, idiomes)
– Validation de la cohérence et de l’intégrité stylistique
Publication et distribution Faible à modéré – Vérifier la fidélité du contenu promotionnel
– Contrôle des titres, accroches, méta-descriptions pour éviter sensationnalisme et clickbait
– Supervision humaine pour garantir l’intégrité éditoriale
Engagement du public et analyse des commentaires Faible – Interprétation prudente des analyses de sentiment
– Relecture humaine pour détecter le sarcasme ou l’ironie
– Utilisation des résultats en tant qu’indications, pas comme des vérités définitives

 

Références