Des humains responsables

Les stratégies du développement de l’intelligence artificielle concernent l’ensemble des acteurs de notre société, qu’ils soient professionnels du secteur, décideurs, chercheurs ou utilisateurs. Le débat éthique a besoin d’être porté par tous, pour garantir un développement dont on ne retiendrait que les bénéfices. La Commission européenne a établi une série de recommandations, qui disposent explicitement l’inclusion de la dimension éthique dans le développement et l’utilisation de nouvelles technologies. Ce ne sont pas seulement le respect des droits fondamentaux des individus qui sont en jeu. De nombreuses lignes directrices existent (à ce propos, il serait intéressant de les regrouper en un seul endroit tant il existe de sources) mais au-delà des intentions, il s’agit aussi de voir comment les intégrer de manière opérationnelle dans les pratiques professionnelles.

Les technologies de l’IA participent à un écosystème sociotechnique au sein duquel gravitent une série d’acteurs qui, s’ils n’ont pas forcément tous un pouvoir décisionnel, sont susceptibles de promouvoir des comportements éthiques. Les indicateurs clés sont ceux de la supervision des systèmes, de leur robustesse, de leur sécurité, de la confidentialité, de la gouvernance des données, de la transparence, de la non-discrimination, du bien-être social et environnemental, du respect de l’intégrité physique, mais aussi de la responsabilité. Dans ce contexte, les acteurs du big tech viennent à l’avant-plan des préoccupations, dès lors qu’ils ont investi massivement dans la recherche sur l’IA et que ce sont eux qui détiennent les laboratoires les pus importants.

Pour le monde de la recherche, cela suppose notamment de s’interroger sur la manière dont les concepteurs de ces systèmes comprennent leurs limitations et les conséquences de leurs utilisations. La question des biais, qui se trouvent autant dans les données que dans les intentions, les processus décisionnels et les contextes sociaux, apparaît également comme un élément-clé. L’étude de l’IA nécessite des collaborations entre disciplines dès lors qu’elle se trouve à la croisée des chemins entre l’économie, la politique, la technologie, la sociologie ou encore la philosophie. Le monde de l’enseignement ne doit pas non plus être en reste car c’est là aussi que se forgent les esprits de citoyens-usagers responsables. Aussi, une approche critique de ces technologies couplée à une éducation à l’IA sont-elles plus que jamais indispensables.