“Data is the new oil” et les acteurs de la big tech l’ont bien compris. La gratuité de leurs services n’est d’ailleurs qu’une illusion : les données de leurs utilisateurs en sont le prix. La collecte, le stockage, le traitement et la commercialisation des données personnelles se heurtent au principe de respect de vie privée. Mais l’utilisateur de Facebook est-il seulement conscient qu’en acceptant les conditions générales de la plateforme, il lui cède non seulement ses données mais le droit de les utiliser comme bon lui semble. C’est aussi ce qui fait d’elle une plateforme attrayante pour le placement publicitaire : l’analyse des données de ses utilisateurs permet aux experts en marketing de cibler des groupes spécifiques. De plus, les systèmes d’IA et les robots sociaux peuvent très bien être utilisés pour manipuler l’opinion publique, y compris en ce qui concerne les opinions politiques. Le scandale Cambridge Analytica a mise en lumière, en 2018, les dangers d’une telle manipulation.
Si l’on part du principe que le débat éthique trouve ses fondements dans une analyse de risques, celui de l’hyper surveillance est celui qui nous concerne tous. De plus en plus, nos mouvements, nos actions sont enregistrées dans des bases de données. Qu’il s’agisse des données que nous cédons volontairement ou de celles que nous semons derrière nous. Ce sont aussi les données que nos transmettons aux autorités et qui alimentent de gigantesques bases de données que certains gestionnaires aimeraient voir fusionner : adieu vie privée ?
La surveillance généralisée, ce sont aussi les caméras dont certaines villes se sont équipées pour traquer les mouvements suspects sur la voie publique. Derrière ces réseaux de caméras, se trouvent des sociétés commerciales qui vendent des solutions technologiques aux autorités. L’addition des données de surveillance peut aboutir à des utilisations dystopiques, comme c’est le cas en Chine avec son programme de crédit social. Là aussi, des données biaisées peuvent conduire à des décisions elles aussi biaisées. Si un tel système existe dans une dictature où les droits de l’homme s’apparentent le plus souvent à un gros mot, de telles dérives totalitaires sont susceptibles de se produire partout ailleurs, au nom de la sacro-sainte sécurité. Pour de nombreux gouvernements, il n’est pas impensable de réduire le périmètre de la vie privée du citoyen pour appliquer la loi. Mais ici, le débat éthique porte sur le principe de surveillance totale ainsi que sur des abus intentionnels ou accidentels.
L’hyper surveillance se trouve déjà chez vous si vous utilisez un assistant personnel comme Alexa ou Google Home. Elle peut aussi se cacher aussi sous les traits d’innocents jouets, à l’instar de « Hello Barbie » commercialisée par Mattel, qui encourage les jeunes filles à dialoguer avec la poupée, à leur parler de leur vie. La société a dit s’être engagée à respecter la vie privée de ses clients. Mais nous n’en savons pas plus. Nos relations avec l’IA, sont aussi une relation de confiance. Et si les données collectées de manière massive soulèvent des préoccupations éthiques considérables, il faut aussi se dire que ces données sont aussi à la base d’une amélioration des performances de l’IA. Un autre enjeu concerne la sécurité de ces données : qu’est-ce qui nous garantit qu’elles sont bien protégées et qu’elles ne tomberont pas dans des mains mal intentionnées? Le cloud, ce n’est pas un nuage mais des serveurs physiques bel et bien réels. Encore une fois, il s’agit d’une question de confiance.