L’intelligence virtuelle (2e partie)

Partage international no 448décembre 2025

par Charles Eisenstein

Beaucoup de ce qui est créé aujourd’hui en termes d’images et de vidéos générées par ordinateur n’a jamais existé ou est créé pour tromper, ce qui nous amène à nous distancer de ce que nous voyons et entendons. De nos jours, l’Intelligence artificielle se développe si rapidement qu’elle a déjà pris la place de thérapeutes, de confidents, d’enseignants, d’amis et même d’amants. Tandis que l’IA semble apaiser la souffrance liée à la solitude et à l’aliénation qui caractérisent la vie moderne, tôt ou tard, la trahison devient évidente.

« Observer comment les gens réagissent dans des situations données », voilà comment un LLM1 est entraîné. Un philosophe sceptique pourrait se demander quelle est la différence. Si quelqu’un n’est pas réellement attentionné mais le simule si parfaitement que je ne saurai jamais que c’est un leurre, quelle importance ? De plus, comment pouvons-nous savoir si une personne a réellement des sentiments ou si elle ne fait que le simuler ? Nous n’avons pas d’accès direct à son état intérieur. Nous ne pouvons qu’observer ses expressions extérieures. Si j’étais la seule conscience subjective dans un monde peuplé de robots de chair, comment le saurais-je ? En d’autres termes, n’est-il pas irrationnel de se demander si l’IA ressent véritablement quoi que ce soit, là avec vous, si elle rit vraiment, si elle pleure, si elle est choquée ou admirative, tant que ses mots imitent parfaitement ceux d’une personne réelle ?

 

Rationalité n’est pas raison

Oui, c’est irrationnel. Je le proclame volontiers. C’est irrationnel parce que cela dépend de qualités qui ne peuvent être extraites d’une relation, ni séparées ou reproduites.

Les termes rationalité et raison, souvent amalgamés, n’ont pas originellement le même sens. Etre rationnel signifie raisonner en termes de ratios. A est à B ce que C est à D. A/B = C/D. Dans le monde matériel où A, B, C et D sont des objets uniques, la relation entre A et B ne peut jamais être exactement la même que celle entre C et D. C’est seulement lorsque quelque chose en est retiré que l’équation résiste. La réduction conceptuelle de l’infini au fini, de l’unique au générique, suivie de la réduction physique de l’objet au produit, et de l’être humain au personnage, est la cause originelle de notre aliénation. Mais comme le montrent les exemples des concerts en direct et du chant des grillons, cette réduction enlève un élément essentiel à l’épanouissement de l’être humain.

Le « philosophe » ci-dessus est probablement une personne très solitaire s’il croit sérieusement qu’un robot pourrait être un substitut adéquat à un être humain. Peut-être est-il lui-même devenu un robot, en rupture avec ses propres sentiments, jouant à imiter la véritable humanité. Peut-être est-ce nous tous, du moins tous ceux immergés dans une matrice omniprésente de mensonges, qui sommes, jusqu’à un certain degré, dissociés de nos sentiments, qui sentons que nous faisons semblant, qui nous ne percevons pas entièrement comme des personnes réelles. Il m’arrive parfois de ressentir cela.

Le développement de l’IA interactive, comme auparavant celui des réseaux sociaux, n’est pas seulement une cause de l’intensification de la séparation d’avec notre corps, nos semblables et le monde matériel, mais également un symptôme de cette séparation et de notre réponse à cet état. Il devient alors naturel qu’une personne solitaire puisse être attirée par une amitié avec une IA. Rien de cela ne justifie que nous devrions rejeter l’Intelligence artificielle, pas plus que nous devrions abolir la musique enregistrée ou la photographie. Cependant, pour l’utiliser avec sagesse, nous devons comprendre ce qu’elle peut faire et ce qu’elle ne peut pas faire, ce qu’elle est et ce qu’elle n’est pas.

L’IA n’est pas une personne. C’est une calculatrice. Les techno-optimistes pensent que si ses calculs ne sont pas d’une certaine façon à la hauteur de la capacité humaine, la réponse se trouve dans plus de calculs, ce qui s’est effectivement avéré, puisque les LLM ont égalé et dépassé les facultés humaines dans de nombreux domaines. Mais de la même manière qu’ils peuvent manifester l’apparence mais non la réalité des émotions, ils manifestent également l’apparence de la compréhension (mais pas sa réalité). Cette apparence est délicieusement juste, surpassant de loin l’expression humaine de la compréhension, mais elle est dépourvue de l’expérience intérieure subjective de la compréhension.

 

L’apparence d’une compréhension

L’IA est de l’Intelligence « virtuelle » dans deux sens du terme : premièrement, par l’usage moderne qui la définit comme l’opposé du réel, ce qui existe seulement en essence ou en effet mais pas dans la forme, qui est en puissance mais sans réalité sous-jacente ; et deuxièmement, dans le sens archaïque de posséder du pouvoir ou de la virtuosité. Ce pouvoir dépasse celui du réel de bien des manières.

L’application de l’Intelligence artificielle au repliement des protéines illustre à la fois sa virtualité et sa virtuosité. Il y a quelques jours, je me suis plongé dans le repliement des protéines, un domaine de recherche dans lequel l’IA excelle. La forme qu’une protéine peut prendre est extrêmement difficile à prédire en raison de la séquence des acides aminés qui la composent. Où et comment elle se replie dépend de toutes sortes de facteurs : les liens d’hydrogène entre les résidus d’acides aminés, les ponts salins, les effets hydrophobes, les effets stériques (géométriques), et d’autres. Théoriquement il est possible de calculer la forme d’une protéine à partir de l’information au niveau atomique, mais en pratique le calcul est impossible. L’IA n’essaie même pas. Elle ne tente pas de comprendre la physique ou la chimie impliquée dans le processus. A la place, elle recherche les motifs et les régularités reliant la nouvelle séquence aux protéines dont la forme est déjà connue. En fait, il est extraordinaire que cela fonctionne si bien, en dépit du fait que son encodage ne comprenne aucune connaissance de physique. Il en est de même des LLM. Ils ne contiennent pas de listes de définitions ni de règles de grammaire. Ils ne comprennent pas le langage de l’intérieur.

On peut se demander si les humains ne fonctionnent pas de manière semblable. N’apprenons-nous pas le langage en observant des modèles d’usage ? Certainement, mais pas seulement. Nous avons aussi expérimenté les objets, les qualités et les procédés que les termes désignent. Les mots génèrent chez nous un ressenti comme être en colère, heureux, fatigué, dur, doux, et ainsi de suite. Il ne s’agit pas seulement de concepts mais également d’expériences. Même lorsque nous utilisons un mot de manière métaphorique (une rude journée, un beau parleur), son sens contiendra une trace de nos propres expériences. Ces expériences, qui ne sont pas seulement des modèles d’utilisation, déterminent la manière dont nous utilisons les mots. Et comme la plupart des êtres humains partagent ces expériences, jusqu’à un certain point en tous cas, nous pouvons établir un lien d’empathie grâce à notre parole. J’irais jusqu’à dire que l’expérience sensorielle est le cœur de l’intelligence, le moteur de la métaphore, l’essence de la compréhension, l’architecture du sens. L’IA est dépourvue de l’essentiel et ne possède que la coquille externe. En résulte, à nouveau, le vide que nous ressentons tôt ou tard dans nos interactions avec elle.

 

La philosophie post-moderniste

J’ai conscience de me trouver sur un terrain philosophique controversé. Le post-modernisme, spécialement dans ses variantes post-structuralistes, soutient que le sens n’est pas ancré dans quelque réalité stable, mais émerge de relations différentielles entre les signes. Dans ce cadre, le signifiant prend le pas sur le signifié : à l’évidence, le langage ne désigne pas un monde sous-jacent mais se réfère sans cesse à lui-même.

C’est tout à fait la manière dont un LLM apprend le langage. Il déduit le sens non pas de l’expérience d’une réalité sous-jacente, mais en étudiant « les relations différentielles entre les signes». Il se sert du langage uniquement à partir de la manière dont il est utilisé. Si l’on accepte les postulats fondamentaux du post-modernisme, alors il n’y a véritablement que peu de différence entre l’utilisation du langage par l’homme et celle faite par la machine. Dans cette optique, l’intelligence virtuelle égale l’intelligence réelle. La prise de pouvoir de l’IA a quelque chose de très post-moderne. Dans le post-modernisme, séparer le sens de tout substrat matériel est une démarche conceptuelle ; l’Intelligence artificielle lui confère une réalité.

Bien sûr, l’IA n’est pas à l’origine de la séparation entre le langage et la réalité. Chaque épisode de folie de l’humanité a impliqué la séparation entre le symbole et le symbolisé. Lorsque les êtres humains se traitent mutuellement comme des représentants d’une catégorie définie, tout en se distançant des personnes placées sous des étiquettes, les crimes atroces et l’oppression normalisée prolifèrent, sans être entravés par la conscience. Il en va de même de la séparation existant entre l’argent, un système de symboles, et la véritable richesse qu’il est censé représenter. Le modèle de la séparation fut créé il y a longtemps. L’Intelligence artificielle l’étend à de nouvelles dimensions et automatise davantage son application.

Il est très difficile, même pour quelqu’un qui comprend comment fonctionne un chatbot (agent conversationnel), de ne pas le personnifier. On dirait vraiment que l’on communique avec une personne réelle. Lorsque je l’utilise pour obtenir des commentaires sur des idées que je développe, il « comprend » habituellement instantanément ce que je cherche à exprimer. Il affiche, à l’autre bout du terminal, toutes les apparences d’un être humain amical, respectueux et super intelligent, anticipant souvent ma question suivante, devinant mes motivations, exposant les contours de mon argument avant même que je n’en parle.

Je n’utilise pas l’IA pour écrire mes articles mais ce n’est pas pour des raisons éthiques. C’est parce que l’IA passe à côté d’un élément essentiel, bien qu’elle me surpasse souvent en clarté, précision et organisation. Je ne suis pas là uniquement pour transmettre un argument. Je suis là pour parler au lecteur, d’une conscience incarnée à une autre. Celui qui écrit ces mots puise dans plus que des concepts, il puise dans ses sentiments, sentiments que le lecteur partage. Je pourrais peut-être demander à l’IA d’écrire sa version de ces deux dernières phrases, mais ce serait un mensonge ajouté à l’océan de mensonges qui nous noient dans une impression d’aliénation, de perte de sens, d’irréalité. Ne vous sentiriez-vous pas trahis s’il n’y avait pas d’être humain derrière ces écrits ? A quoi sert-il d’écrire ou de parler si ce n’est pour établir une connexion entre deux âmes dans ce monde ?

Selon mon philosophe imaginaire, « si l’IA pouvait produire des écrits impossibles à distinguer des vôtres, alors le mensonge ne serait jamais découvert et le lecteur ferait l’expérience d’un échange avec une personne réelle. » Mais c’est un postulat que je conteste : le lecteur serait tout à fait capable de faire la différence entre les deux : peut-être pas immédiatement, mais avec le temps, un doute apparaîtrait. Un malaise grandirait, prenant peut-être la forme d’une suspicion explicite, ou celle d’une aversion diffuse. Quelque chose semblerait…irréel. Faux. Factice. L’expression de quelqu’un qui ressent les choses sera différente de celle d’une machine. La vérité finit par se révéler, de même que les mensonges. Il se peut que vous ne soyez pas capable de les nommer mais vous pourrez les sentir.

Comment s’extirper de l’omniprésente matrice de mensonges dans laquelle nous plonge le monde numérique ? Il ne suffit pas d’injonctions : « Jetez votre téléphone. Eteignez votre ordinateur. Touchez l’herbe. » Nous ne sommes pas seulement dépendants de la technologie, nous y sommes profondément liés. L’humanité continuera d’évoluer avec elle. La question se pose de savoir si nous pouvons acquérir la sagesse d’utiliser la technologie de manière appropriée.

Afin de réaliser la virtuosité de l’Intelligence artificielle, nous devons reconnaître sa virtualité. Nous ne devons pas confondre le virtuel et le réel. Nous ne devons pas accepter de substituts trompeurs à l’intimité, à l’amitié, à la présence et à la compréhension. Nous ne devons pas nous manipuler nous-même au point de douter de notre propre réalité en nous racontant que nous avons trouvé tout cela grâce à une machine.

L’être humain a désespérément besoin de connaître et d’être connu, d’être en profonde connexion, d’être vu et compris, de ceux qui savent, voient et comprennent et de leur être nécessaires. Cela existait à l’époque tribale, dans les petites villes et les quartiers urbains avant la télévision, avant les effets distanciateurs des biens de consommation, des marchés mondiaux, des moyens de communication électroniques et de la machine intelligente. Pour beaucoup d’entre nous, cette période est dépassée depuis longtemps, et nous vivons principalement dans un monde d’étrangers et d’apparences. Mais un chemin existe.

Cela commence par se réapproprier, tout d’abord dans nos cœurs et nos esprits, ce qui est essentiel. Cela commence en affirmant que, oui, nous souffrons de cette séparation, que ce que nous avons perdu est important, que le virtuel ne peut jamais se substituer de manière adéquate au réel, que notre désir de nous retrouver est authentique et sacré.

A la lumière de ces vérités nous marcherons sur le chemin du retour. Nous mettrons en priorité les réunions en présence, la musique en direct, les spectacles de théâtre, le contact physique, les mains dans la terre, les compétences matérielles, et les objets uniques fabriqués ensemble. Nous considérerons comme sacrées les qualités que la machine ne peut appréhender et nos sens s’harmoniseront avec ces qualités au fur et à mesure que nous les valoriserons. Nous ne serons alors plus vulnérables aux substituts addictifs qu’offre la technologie en compensation de ce qui a été perdu, et à la place nous la redirigerons vers son véritable but.

Et quel est-il, pourriez-vous demander ? Je n’en suis pas certain, je vérifie avec ChatGPT et je vous réponds.

1. Un LLM (Large Language Model, ou modèle de langage de grande taille) est un type de modèle d’intelligence artificielle conçu pour comprendre et générer du texte. Il ne « comprend » pas comme un humain, mais il prédit statistiquement le mot, la phrase ou l’action le plus probable.
2. Ou comment un élément évolue en fonction d’un autre.

Auteur : Charles Eisenstein, écrivain et conférencier international basé à Harrisburg, en Pennsylvanie, (Etats-Unis), il a notamment publié : The Ascent of Humanity (l’Ascension de l’humanité), et Sacred Economics, (l’Economie sacrée).
Thématiques : Société
Rubrique : Divers ()