Développer et intégrer une éthique de l’intelligence artificielle et de la robotique fait partie des enjeux majeurs de la décennie. Bien que de nombreuses lignes directrices aient vu le jour au cours de ces dernières années, leur mise en pratique ne va pas toujours de soi : une question d’équilibre entre les intérêts commerciaux et ceux de l’individu et de la société.
La métaphore de l’intelligence artificielle fait référence à différents systèmes informatiques, utilisés dans une variété de secteurs économiques, et sa définition est par essence volatile. Dans le monde de la recherche, différentes approches coexistent : des systèmes qui agissent intelligemment, des machines qui pensent comme les humains, des machines qui agissent comme des humains, et des machines qui agissent de manière rationnelle. Alan Turing (1912-1954) envisageait l’IA comme une machine ayant la capacité de faire preuve d’un comportement intelligent qui soit indiscernable d’un comportement humain intelligent. John Searle aborde quant à lui l’IA selon qu’elle soit « faible », c’est-à-dire limitée à une seule tâche définie, ou « forte », à savoir disposant d’un raisonnement identique à un être humain.
Dans son expérience de la chambre jaune, menée en 1980, il se demandait si un programme informatique complexe était capable de donner un esprit à un système et sa conclusion était qu’une IA ne peut qu’être faible. Si nous sommes encore loin d’une véritable IA capable de démontrer une telle intelligence, il s’agit toutefois d’un rêve caressé par certains scientifiques, dans une vision déterministe qui n’est pas sans risques. Car si l’IA peut être développée pour être profitable à l’individu ou à la société, l’inverse peut s’avérer tout aussi vrai. Comme le rappelait Michel Volle dans « De l’informatique: savoir vivre avec l’automate » (2008), le bien et le mal ne résident pas dans l’outil mais dans les intentions qui le sous-tendent.