X

Pourquoi la Charte de Paris sur l’IA et le journalisme est un rendez-vous manqué

24 novembre 2023

Parfois, il est inutile de vouloir réinventer la roue parce qu’elle tourne déjà bien. Ce constat s’applique à la Charte de Paris, lancée par RSF à grands renforts de communication, pour promouvoir des usages éthiques des technologies de l’IA (ce qui est déjà plus correct que de parler d’IA, un terme fourre-tout qui veut tout et rien dire à la fois) et en particulier à l’heure où les « Large Language Models » (LLMs) et autres programmes d’AI générative ont d’ores et déjà conquis un nombre important de journalistes et de rédactions. En la matière, ce n’est pas comme si l’on partait d’une page blanche : plus d’une trentaine d’organisations médiatiques et d’organes d’autorégulation ont déjà édicté leurs règles de bonnes pratiques. J’ai commenté chacun des articles de la Charte de Paris pour The Fix Media. Voici mon analyse complète, en français dans le texte. Les points absents de cette Charte ? La promotion de l’éducation aux médias numériques (data et IA inclus), la nécessaire interdisciplinarité d’un domaine qui n’appartient pas aux seuls journalistes (ce qu’il ne faut surtout pas oublier) et des considérations environnementales, dès lors que ces technologies – à l’instar des toutes les technologies numériques – ont un coût environnemental à ne pas négliger à une époque où le climat est une préoccupation majeure.


Le texte de la Charte est disponible ici :
https://rsf.org/sites/default/files/medias/file/2023/11/Charte%20de%20Paris%20sur%20l%27IA%20et%20le%20journalisme_3.pdf


Les commentaires portent sur le numéro des articles (sans les répéter dans ce billet)

Article 1

La dimension d’explicabilité devrait devenir un standard journalistique à part entière, compte tenu de la nature de boîte noire des systèmes (tant en termes de données de formation que de processus) – parce que la transparence, à elle seule, ne suffit pas (et est critiquable pour de nombreuses raisons). Toutefois, l’explicabilité a elle aussi ses limites et la recherche n’est pas encore venue à bout de ces aspects.

Article 2

Oui mais cela nécessite des données solides et des connaissances en IA pour comprendre les systèmes à l’œuvre.

Article 3

Compte tenu des nombreuses faces sombres de ChatGPT (utilisation de données biaisées, peu fiables, protégées par le droit d’auteur, formation par des travailleurs peu rémunérés, coûts environnementaux…), ce système est de facto disqualifié par la Charte, ce qui est totalement irréaliste (d’autres services et plateformes sont également rejetés sur cette base). De plus, qui sont les humains qui évalueront les systèmes ? Ici aussi, cela nécessite une maîtrise des données et de l’informatique, ainsi qu’une collaboration avec toutes les parties prenantes – universités et recherche y compris car leur expertise ne doit pas être négligée. Par exemple, en ce qui concerne le fact-checking automatisé, nous avons identifié 250 outils, vous n’imaginez pas le volume de travail nécessaire pour les évaluer ? De plus, de nouveaux outils apparaissent presque tous les jours et d’autres disparaissent…

Article 4

Comme pour l’article 3, c’est irréaliste. Aussi, comment savoir si la recherche et la traduction Google sont conformes à l’éthique du journalisme et aux directives éditoriales ?

Article 5

La transparence participe une nouvelle norme éthique. Oui, cela doit être communiqué mais la transparence n’est pas synonyme d’explicabilité et si je dis « Cet article a été rédigé avec GPT-4 et nous avons utilisé un algorithme K-Means pour regrouper les données que nous avons collectées », cela ne veut rien dire pour le public. L’idée d’un dossier public peut sembler une bonne idée, mais les journalistes utilisent quotidiennement de nombreux systèmes d’IA, sans s’en rendre compte, et cela commence avec leur smartphone. Cela semble irréaliste.

Article 6

Là encore, ChatGPT et les LLMs sont rejetés car nous ne savons rien des données, les systèmes ne peuvent pas lier leurs réponses à des données spécifiques, et il n’y a donc aucune garantie d’authenticité. De plus, comment savoir si le système a changé, si les données ont changé ? Comment évaluer cela ? Et avec quelle expertise ?

Article 7

Le problème est que les journalistes peuvent se laisser berner par le contenu généré par une machine s’ils n’en sont pas suffisamment conscients (voire même se laisser berner tout court parce que ces systèmes sont bluffants). De plus, les détecteurs présentent de nombreuses faiblesses et il devenait plus difficile de faire la différence. Cette approche ne traite pas non plus des phénomènes de biais et d’hallucinations dans les LLMs, qui sont aussi une réalité.

Article 8

Les deux règles de base sont normalement le respect de la confidentialité des données et le consentement éclairé de leur utilisation (par l’utilisateur). Cet article tente de préserver la diversité de l’information tout en ignorant ces deux aspects éthiques fondamentaux. En outre, des recherches ont mis en évidence que les problèmes éthiques liés aux recommandations et à la personnalisation des informations étaient moins liés à un effet de bulle de filtre ou de chambre d’écho qu’à une exacerbation de la polarisation des opinions.

Article 9

C’est peut-être la partie la plus intéressante de la Charte, mais là encore, rien n’est dit sur la nécessité d’une solide maîtrise des données et d’une éducation à l’IA, ni sur l’implication de toutes les parties prenantes (qui ne sont donc pas seulement des journalistes – à la BBC, par exemple, les premières guidelines sur l’IA ont été adressées aux développeurs).

Article 10

Là encore, les systèmes d’IA générative sont disqualifiés, et la question de la juste rémunération est plutôt une préoccupation syndicale qu’un principe éthique favorisant l’adoption de pratiques responsables (même si cela reste nécessaire, cela concerne davantage les éditeurs que les journalistes qui n’ont pas ce pouvoir décisionnel dans une entreprise de presse).

# #