Faire atterrir l’intelligence artificielle dans la cité

Adrien TALLENT 
adrien.tallent@gmail.com

Dans son livre Théorie de la justice, John Rawls explique qu’une société doit être juste avant d’être égalitaire. Dès lors, comment s’assurer qu’elle soit juste ? Rawls répond à cette interrogation par le concept du “voile d’ignorance” qui permet de penser l’organisation de la société sans être biaisé par sa situation dans l’échelle sociale. Sous ce voile d’ignorance, les êtres humains choisissent alors librement, car c’est dans leur intérêt, de mettre en commun un certain nombre de choses, à commencer par le risque. Nos sociétés sont des sociétés de mutualisation du risque. Ne sachant pas si nous allons subir un accident, si nous allons perdre notre emploi, si nous allons tomber malade, les individus d’une société décident alors de mutualiser les risques. Avec l’intelligence artificielle et l’exploitation massive des données (personnelles ou non), le voile d’ignorance se déchire. Avec la donnée, tout est vu, tout est su (ou du moins pensé comme tel). On ne laisse rien au mystère, au changement. On peut connaître votre comportement au volant et vous faire une assurance adaptée. Accepterons-nous toujours cette solidarité si nous savons que certains courent des risques et d’autres pas? La donnée individualise. Tout est individualisé, personnalisé. Avec cette personnalisation, le contrat social s’étiole. La donnée diminue la charité, la fraternité. Désormais, chaque individu est dans une relation unique avec les organisations avec lesquelles il est lié. Chaque individu est comme dans des mini-enclos, dans une “bulle de filtre” pour reprendre l’expression d’Eli Pariser. Sur internet il n’est exposé qu’à du contenu avec lequel il est en accord – le but étant pour les grandes entreprises technologiques de le faire rester le plus longtemps sur leur plateforme afin de l’exposer à de la publicité ciblée. Cette individualisation, personnalisation, empêche le maintien d’un socle commun d’expériences, d’informations, de vérités, préalable au sentiment de société et au bon fonctionnement de la démocratie. Pire, l’intelligence artificielle est source de marginalisation, elle est une exclusion dans l’exclusion et les individus laissés sur le côté ne font dès lors plus partie de cette “société technologique”. Les inégalités sont ainsi réduites à des différences qu’il revient aux individus de corriger sous peine de se faire exclus, discriminés. Pour l’artiste et philosophe James Bridle, la technologie devient alors un facteur d’inégalité. Or, désormais, tout passe par la donnée et son traitement par l’intelligence artificielle. Mais cette pensée nous enferme et nous détermine. “Parce que les instruments déterminent ce qui peut être fait, ils déterminent aussi, dans une certaine mesure, ce qui peut être pensé” (Albert van Helden & Thomas Hankins, 1994). Nous voyons tout à travers le prisme de la technologie, qui nous rassure et semble nous donner des certitudes, là où – pour ce qui est de l’intelligence artificielle notamment – elle ne donne que des intervalles de confiance, des probabilités. Dès lors, il faut faire “atterrir” l’intelligence artificielle et sa régulation dans la cité. Les questionnements liés à l’éthique des données et de l’intelligence artificielle se concentrent souvent sur les aspects techniques plus que sur les aspects humains. Il s’agit ainsi de politiser la question. On a l’impression que la technologie domine la cité. Il faut avoir une pensée critique sur les enjeux de la technologie.

Le but de cette communication sera d’étudier comment la collecte massive de données et leur traitement par l’intelligence artificielle bouleversent le contrat
social, fondements de nos sociétés démocratiques.

Bibliographie
BRIDLE James, Un Nouvel âge de ténèbres, Allia, 2022
DEFFAINS Bruno, “Repenser le contrat social à l’heure du numérique”, in Raison
économique et raison politique, Jean Mercier-Ythier (dir.), 2022 ,pp. 253 – 282
GARCIA Tristan, La Vie intense, Autrement,
GENTELET Karine, “Voici pourquoi l’intelligence artificielle ne peut être considérée
comme un simple outil”, The Conversation, 8 août 2022
HANKINS Thomas, VAN HELDEN Albert (dir.), Osiris, Volume 9: Instruments, Chicago,
University of Chicago Press, 1994.
HOBBES Thomas, Léviathan, Gallimard, 2000
PARISER Eli, The Filter Bubble: What the Internet Is Hiding from You, New York, Penguin,
2012
RAWLS John, Théorie de la justice, Points, 2009
ROUSSEAU, Jean-Jacques, Du Contrat social, Flammarion, 2011

ROUVROY Antoinette, STIEGLER Bernard, « Le régime de vérité numérique. De la
gouvernementalité algorithmique à un nouvel Etat de droit », Socio, 2015/4.

Retour en haut