Claire Lobet-Maris, Université de Namur
Le 30 novembre 2022, la société Open AI lançait ChatGPT déclenchant un foisonnement de débats et de questionnements. Le rapport à la « réalité » qu’entretient notre société explique en partie l’émergence et le succès d’intelligence artificielle comme ChatGPT.
À la fin des années 70, l’économiste Harry Braverman soulignait déjà que l’informatique contribuait à accentuer la distance entre la main et l’esprit signant la disparition progressive de gestes et de savoirs traditionnels comme de certains métiers manuels. L’informatique, nous le comprenions déjà, allait transformer notre rapport à la réalité, telle une membrane ou une interface qui s’interpose entre nous et le monde pour nous dire ce qui compte et ce qui vaut.
Ce que nous ne savions pas à l’époque, c’est que ces membranes ou interfaces, autrefois maîtrisables et intelligibles dans des programmes qu’on parvenait encore à expliquer et à discuter, allaient devenir de plus en plus intelligentes et obscures. Avec les systèmes d’IA, comme celui qui supporte ChatGPT, la membrane perd en contrôle.
Une délégation de plus ?
La sociologue Madeleine Akrich propose de considérer la technologie comme un acteur à qui on décide de déléguer des tâches. Ce terme de délégation est intéressant car que déléguons-nous à ChatGPT ? On lui confie la tâche de répondre à nos questions en fouillant des milliards de données pour trouver la « bonne information ». En ce sens, ChatGPT ne fait qu’un pas de plus dans les délégations que nous avons déjà confiées aux machines.
Mais peut-être est-ce un pas de trop car en utilisant la métaphore du délégué pour penser ChatGPT, ce que nous acceptons, c’est de confier la recherche d’information – et partant, notre rapport au monde – à un délégué dont on ne sait ni ce qu’il interroge, ni comment il fonctionne. C’est comme si on acceptait de confier son sort à un parfait inconnu dont on ne sait rien. Il y a là l’installation progressive d’un régime de vraisemblance où la distinction entre matérialité des faits et fabrication des faits par l’algorithme s’obscurcit, nous amenant dans un monde où plus rien ni personne ne peut être sûr.
En effet, l’incertitude liée à l’inflation informationnelle que nous connaissons depuis des décennies avait déjà tissé le lit de ce régime de post-vérité fait de fake news et de grands complots. Ce rapport troublé à la vérité des faits est ce qui permet évidemment toutes les manipulations, puisque ces textes produits sans discernement ne se heurtent plus ni à la consistance du réel que la philosophe Hannah Arendt qualifiait de « matérialité factuelle », ni à l’âpreté du débat.
Avec des outils comme ChatGPT, nous ne sommes plus qu’« au bord du monde », comme le dirait l’urbaniste et essayiste Paul Virilio, à sa toute dernière extrémité. La réalité n’est plus qu’un reste, un résidu…
Individualisme de masse
Ce régime de vraisemblance est d’autant plus critique qu’il nous prend individuellement. De fait, le deuxième rôle que nous confions à ce « délégué » est de répondre à « nos » questions en « tenant compte » de nos réactions et avis, nous enfermant progressivement, par ce système d’apprentissage, dans une boucle de renforcement. À titre d’exemple, en suggérant dans la conversation avec ChatGPT que vous adorez les romans de Louis-Ferdinand Céline ou que vous les détestez, vous aurez deux appréciations totalement différentes de l’écrivain.
Ici aussi ce qui permet à ChatGPT d’exister et de se loger dans les différents plis de la société, c’est qu’il s’inscrit dans un terreau social bien présent que Paul Virilio nomme « l’individualisme de masse ». Par ce terme, il désigne la capacité des médias informatiques avancés « à traiter tête par tête nos mentalités ». En fait, nous dit-il, toutes ces technologies ne font qu’ouvrir la voie à la « télécommande universelle », une métaphore qui permet de penser ces applications qui ne laisseront plus à l’individu « de temps perdu, autrement dit de temps libre pour la réflexion, l’introspection prolongée ».
La vitesse à laquelle opère ChatGPT contribue, pour reprendre ses termes, à « une sorte d’illusion stroboscopique qui brouille toute perception et donc toute véritable connaissance ». Notre esprit y était déjà bien préparé « habitué au zapping […] à l’association sauvage de sa navigation sur Internet […] il se contente de glaner çà et là des informations par butinage des lambeaux figés de sens ». Ceci pose la question de comment peut se faire et avancer une société dans un tel individualisme volatile et pointilliste.
Marchandise fictive
Ce nouveau délégué qu’est ChatGPT est très symbolique de ce régime socio-économique que le philosophe André Gorz a qualifié de capitalisme cognitif. Dans ce régime, comme le résument bien les philosophes italiens Toni Negri et Carlo Vercellone « l’enjeu central de la valorisation du capital porte directement […] sur la transformation de la connaissance en une marchandise fictive ».
Rappelons que pour l’économiste Karl Polanyi, une marchandise répond à deux critères : être produit (critère de production) pour la vente (critère de validation). Ces connaissances ne sont pas des marchandises, elles font partie du commun et c’est le propre du capitalisme cognitif de privatiser à la fois leur accès et leur exploitation.
Ce régime considère la connaissance comme un stock regorgeant de données qu’il s’agit de fouiller et d’exploiter, enfermant progressivement la connaissance dans une boucle où plus rien ne se crée et où tout devient exploitation et gestion. À l’instar d’autres systèmes industriels ayant exploité la terre et la nature jusqu’à l’épuiser, des systèmes comme ChatGPT peuvent également participer à un appauvrissement de notre culture, transformant par bouclage et renforcement ce bien commun qu’est la connaissance en un vaste fournisseur d’inepties et inerties.
Au-delà de l’épuisement de la connaissance et de la culture, ces outils d’IA recèlent en eux un risque de perte généralisée de notre rapport au réel. Ainsi, nous dit Paul Virilio, « après l’accident de la substance, nous inaugurons avec le siècle qui vient un accident sans pareil, accident du réel », véritable « dé-réalisation, conduisant adultes et adolescents vers un monde parallèle sans consistance, où chacun s’accoutume peu à peu à habiter l’accident d’un continuum audiovisuel indépendant de l’espace réel de sa vie ».
Cet accident est tout en abîme puisqu’il s’agit à la fois de perdre pied par rapport à la matérialité des faits mais aussi de ne plus pouvoir reprendre pied du fait du caractère autonome et dès lors peu contrôlable de ces technologies dites intelligentes.
Habiter le monde : vers une écologie grise
En 1960, dans « L’œil et l’esprit », le philosophe Maurice Merleau Ponty écrivait « La science manipule les choses et renonce à les habiter. Elle […] ne se confronte que de loin en loin avec le monde actuel. »
Face à ChatGPT, on lirait certainement chez Paul Virilio, comme chez André Gorz, une même invitation à retrouver la voie sensible du savoir, à renouer avec l’expérience touchante du monde vécu. Savoir et comprendre nous rappellent ces auteurs n’est pas connaître. Savoir et comprendre nécessitent de se confronter au monde, de le toucher, de le sentir, de l’appréhender autrement que dans la platitude des écrans. Là, nous dit Paul Virilio, le sens du réel et de sa finitude se perd et toutes les vérités deviennent possibles.
L’ère industrielle nous a conduit au réchauffement climatique. L’ère artificielle pourrait nous conduire à un réchauffement des esprits, une perte généralisée du « sens de l’orientation » où notre rapport au monde, aux autres et à nous-mêmes deviendrait incontrôlable. Il est évident, nous dit Paul Virilio, que cette perte d’orientation inaugure une crise profonde qui affectera nos démocraties.
[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Face à ce défi majeur, le concept d’écologie grise de Paul Virilio est une invitation à politiser ce qui arrive au « réel », à notre culture, c’est-à-dire à notre rapport au monde, tout comme l’écologie verte l’a fait depuis bien longtemps avec la nature.
L’écologie grise nous invite à reprendre fermement et sérieusement la main démocratique sur le développement de ces technologies. Sans cette fermeté, souligne Paul Virilio en reprenant Hannah Arendt : « Il se pourrait que nous ne soyons plus jamais capables de comprendre, c’est-à-dire de penser et d’exprimer les choses que nous sommes cependant capables de faire. »
Claire Lobet-Maris, Professeure senior sociologie du digital et créativité, Université de Namur
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.