X

Humain-machine, en bonne intelligence avec ChatGPT

Laurence Dierickx

2022-12-15
Si la réponse de l’IA est sans équivoque lorsqu’on lui pose la question du pourquoi elle ne devrait pas être utilisée par des étudiants en journalisme –  pas assez de précision pour produire des informations de qualité journalistique, les textes générés ne peuvent pas être considérés comme du contenu original, la possibilité de disposer d’informations erronées ou incomplètes, non prise en compte d’éléments de nuance importants – ce n’est pas pour autant qu’il faut la condamner. Réfléchir à des usages constructifs et balisés qui tiennent compte des limites de l’outil est la voie qu’il faudrait sans doute privilégier.

Depuis le lancement de ChatGPT en novembre dernier, on ne compte plus les articles et prises de position sur ce qu’il conviendrait de faire et de ne pas faire avec le modèle de langage développé par Open AI. Les craintes sont nombreuses et sont autant liées à la paresse intelectuelle qui pousserait étudiants et travailleurs à utiliser ChatGPT en tant que produit fini, au remplacement des professionnels de l’écriture et de la création, ou encore au plagiat. Si certains enseignements ont décidé de mobiliser le système dans le cadre de leurs cours, en le rendant même obligatoire, certaines universités ont tout bonnement interdit son usage, position radicale mais aussi contre-productive car rien de tel que tester le système pour se rendre compte de ses possibilités et de ses limites.

Aussi, dans le même temps, plusieurs expériences de partenariat humain-IA ont été relayées sur les réseaux sociaux, démontrant que ChatGPT est un outil de plus et qu’il est possible de s’en servir pour ce qu’il est. De fait, le système n’est pas sans limites. Lorsqu’on lui demande pourquoi il ne devrait pas être utilisé par des étudiants en journalisme, il pointe les problèmes de fiabilité de ses réponses, lesquels sont liés à un problème de qualité des données évident : l’IA est entraînée sur un corpus volumineux de données issues de web, d’articles, de livres, rien de bien précis dans tout cela, et elle est entraînée sur des données qui ne vont pas plus loin que 2021. Cela veut donc bien dire que c’est à l’utilisateur de vérifier les résultats fournis par le système. Selon l’IA elle-même, il existe plusieurs raisons de ne pas l’utiliser.

Toutefois, connaître les limites d’un système informatique, c’est aussi avoir tous les éléments pour bien l’utiliser. En journalisme, les applications « intelligentes » de ChatGPT sont encore à explorer mais voici quelques pistes permettant de tirer parti de l’outil :

Bien sûr, tout ceci reste encore à expérimenter, à explorer. Et c’est dans ce sens qu’un challenge a été lancé aux rédactions, les invitant à réfléchir quant à la manière dont les IA génératives pourraient être utilisée au service de l’information.

Voir le verre à moitié plein amène à considérer comme utiliser cet outil d’IA générative de manière productive et raisonnée, sans verser dans la peur d’un grand remplacement technologique : ChatGPT n’est pas le meilleur rédacteur du monde, il produit des incohérences (mais cela peut servir de base à l’écriture humaine) et rédige généralement de manière assez standardisée. Au Canada, une itinitiave intéressante permet de contrôler si un texte a été généré par ChatGPT Car s’il y a un enseignement à ne pas perdre de vue, celui qui ressort à chaque nouvelle disruption, c’est celui selon lequel la technologie n’est ni bonne ni mauvaise en soi : elle est ce que les humains en font. Ce sont donc à des usages éthiques de ChatGPT qu’il faudrait désormais penser, histoire de rester constructifs et de travailler… en bonne intelligence.

 

# #