Intégrer le normes journalistiques dès la conception, être transparent sur les données et sur les processus automatisés, développer des lignes directrices communes aux journalistes et aux technologiques : des bonnes pratiques listées dans un rapport du Tow Center for Digital Journalism.
En septembre dernier, le Tow Center for Digital Journalism (Columbia Journalism School), publiait un rapport relatif aux pratiques et implications de l’intelligence artificielle dans les rédactions américaines. Considérant la présence croissante de l’intelligence artificielle et des technologies d’automatisation de la production d’informations, une plateforme d’échanges a été mise en place entre technologues et journalistes afin de mesurer cet impact dans les rédactions et de définir comment mieux adapter ces technologies au domaine du journalisme. Ces échanges ont permis d’explorer les questions relatives à l’appui de ces technologies aux processus journalistiques, les fonctions journalistiques pouvant être remplacées par une intelligence artificielle, la généralisation de ces technologies dans le storytelling médiatique et les questions éthiques qui émergent de ces nouvelles pratiques.
Les constats
« Beaucoup des outils informatiques que les journalistes utilisent aujourd’hui n’ont pas été développés pour la profession (…) Ils sont le faits d’agents appartenant aux mondes de la science, des statistiques ou de l’ingénierie »
Si les outils de l’intelligence artificielle peuvent appuyer les journalistes dans leur travail, il semble qu’ils soient davantage destinés à les assister qu’à les remplacer car le caractère humain du journalisme reste essentiel. Mais, relève le rapport, il existe un écart de connaissances et un manque de communication entre les concepteurs de ces technologies et les journalistes qui les utilisent. Cette forme de transparence devrait également être réalisée avec les audiences : aussi, indique-t-il, celles-ci devraient être informées quant à la manière dont ces outils ont été créées et utilisées. Sur le plan éthique, la manière dont les données sont collectées, stockées, utilisées, analysées et partagées sont un autre défi important ; de même que celui de l’accès aux données.
« Le nettoyage des données est une autre limitation à la pratique du journalisme de données. Cela peut prendre des semaines, voire des mois, pour nettoyer un ensemble de données, et même s’il s’agit d’un domaine dans lequel l’IA peut aider, il a tendance à être effectué manuellement en raison de contraintes légales. »
Les technologies de l’intelligence artificielle ou d’automatisation offrent de nouvelles possibilités envers les audiences : de l’engagement à la monétisation, en passant par la personnalisation des flux d’actualité. Mais, à ce propos, un équilibre devrait être trouvé pour éviter la création de bulles (« filter bubbles » ou « echo chambers ») et rester engagé dans la mission de service au public qu’est celle du journalisme. Par ailleurs, étant donné le caractère imprévisible de l’intelligence artificielle, il convient de rester vigilant.
Les recommandations
Passé le stade des constats, vient celui des recommandations. Arrive en premier lieu l’aspect de la formation, visant à ce que les journalistes comprennent comment utiliser ces nouvelles ressources que ce soit sur le plan éthique ou sur celui de pratiques efficaces. Le développement et la promotion de lignes directrices qui soient partagées entre les journalistes et les technologues pour une utilisation éthique des données consiste en un deuxième axe. Une troisième recommandation porte sur la manière d’envisager ces technologies comme des opportunités mais celles-ci doivent intégrer les valeurs et normes éditoriales à leurs prémices.
« Tout comme dans le travail académique, les audiences méritent d’avoir une méthodologie transparente sur la manière dont les outils d’IA ont été utilisés pour effectuer une analyse, identifier un modèle ou signaler une découverte. Mais cette description doit être traduite en termes non techniques, et être racontée de manière concise, pour leur permettre de comprendre comment l’IA a été utilisée et comment les choix ont été effectués. »
Vient ensuite l’aspect lié aux investissements coûteux dans des technologies que ne peuvent pas se permettre toutes les rédactions. C’est pourquoi le rapport préconise que celles-ci investissent du temps à nouer des partenariats avec le monde de l’enseignement. Enfin, il s’agit de « combattre les préjugés cachés dans l’IA, souvent non reconnus mais toujours bien présents » en promouvant la transparence. Tout comme il s’agit de ne pas oublier que, derrière toute technologie, se trouvent des humains.