Sélectionner une page

ChatGPT ou le langage sans référence

Si vous avez déjà posé des questions à ChatGPT, ou si vous lui avez demandé d’améliorer un texte, vous avez certainement été bluffé par le résultat. En quelques secondes, vous avez sous les yeux un texte clair, précis, adapté aux destinataires si vous les avez précisés. Et s’il  vous manque une illustration pour ce document, En quelques instants, le dispositif générera une image selon vos consignes.

Ces résultats confortent l’appellation d’« intelligence générative »  pour qualifier ces dispositifs relevant de la haute technologie. Certes, des voix se sont fait entendre pour signaler que ChatGPT ou autre Copilot peuvent aussi énoncer des âneries ; mais ils le font avec style ! On parle d’hallucinations pour désigner ces inventions, imposant de vérifier les résultats ; on ne peut prendre pour argent comptant les résultats obtenus.

En fait, cela ne devrait pas trop nous étonner. Une information peut être tenue pour vraie ou fausse selon son rapport à des faits qui lui sont externes. « Cet animal possède quatre pattes » est vrai ou faux selon que je me tiens devant un canard ou un cheval. Mais rien dans cet énoncé ne me permet d’émettre un jugement sur sa vérité en le considérant pour lui-même, détaché de tout contexte.

Or, pour un modèle de langage tel ChatGPT, il n’existe aucun contexte, aucune réalité, aucun monde extérieur, mais uniquement des productions textuelles dont la cohérence est d’ordre statistique. Un tel modèle est capable de vous fournir des phrases sur ce qu’est un cheval, sans comprendre un mot de ce qu’il écrit. Pour lui, un cheval possède la même réalité qu’une licorne, ou plutôt la même absence de réalité.

Comment un tel logiciel peut-il alors produire des textes consistants et bien rédigés, sans rien comprendre aux phrases produites ? L’idée est d’associer à chaque mot d’autres mots situés dans le même espace sémantique : au mot cheval seront associés par exemple crinière, sabot, ferme, jockey, attelage, etc. De plus, chacune de ces associations est caractérisée par des coordonnées numériques indiquant sa proximité avec le mot caractérisé, dans un espace pouvant compter des centaines de dimensions identifiant chacune des domaines de sens.

Les associations se font par apprentissage profond utilisant des réseaux de neurones informatiques qui encodent tous les textes à disposition, ce qui demande des ressources matérielles et énergétiques énormes. Puis, lors de l’utilisation du modèle de langage sollicité, les mots de la demande ou de la question sont introduits dans le système, et le « miracle » se produit : un texte intelligible est construit par juxtaposition de mots selon des probabilités basées sur les coordonnées numériques associées.

Où trouver de l’intelligence dans le processus ? Dans la conception du système, assurément. Mais dans son fonctionnement ? Proposer un texte en ignorant tout de son sens et de son incarnation dans un monde physique et social, est-ce faire preuve d’intelligence ?

Si dans la production d’un texte scientifique ChatGPT invente des références à des articles inexistants, c’est parce que pour lui, une référence bibliographique n’est qu’un style littéraire particulier ponctuant de tels articles : s’il n’en a pas d’existantes à proposer, il en créera une, qui pour lui aura exactement la même réalité qu’une référence authentique. Dans un texte juridique, ce sont des cas de jurisprudence qui seront créés selon les standards de probabilité propre à ce genre de littérature.

De la même manière que les premières machines à calculer mécaniques d’abord, puis électroniques, ont pu bluffer les utilisateurs et se révéler très utiles, ChatGPT et consorts provoquent un intérêt, une fascination teintée de crainte qui a envahi l’espace social et économique. La complexité de ces dispositifs les rend mystérieux, et la qualité des productions est le plus souvent remarquable, provoquant un emballement économique et médiatique certain. Et petit à petit, ces dispositifs reprendront le rang de ce qu’ils ont toujours été : des instruments technologiques que l’on peut mobiliser quotidiennement pour se faciliter la vie, améliorer la productivité ou la qualité de prestations, ou encore arnaquer ses victimes avec plus d’efficacité, selon les intentions de l’utilisateur.

Car effectivement, comme pour tout outil, son détournement pour des fins illicites (phishing, fake news, deep fake,…) a pris un essor difficile à limiter, rendant plus difficile encore la confiance accordée aux technologies de l’information.

Mais le vrai danger est ailleurs : lorsque le langage se suffit à lui-même et n’a plus besoin de s’enraciner dans un monde concret qui nous est extérieur, alors toute réalité devient potentiellement alternative. L’important ne réside plus dans les faits, mais dans leur énonciation, dans leur « story telling » Et si les faits ne correspondent plus au récit, et bien… il suffit de changer les faits !Notre monde, qualifié de désenchanté par Marcel Gauchet, a perdu les idéologies qui, même contradictoires, donnaient des repères et du sens aux événements quotidiens comme planétaires. Si maintenant les références font défaut ou deviennent superflues, je ne suis pas sûr que cela contribue à l’apaisement de nos sociétés.

Vous voulez explorer les limites intrinsèqies des intelligences génératives tel ChatGPT ? Lisez mon roman Liah !

0 commentaires