Hugues Bersini, ChatGPT. Il était une fois une IA régressive. Éditions de l’Université de Bruxelles, 2023.Éditions de l’Université de Bruxelles, 2023.
Barbara Szafrajzen, « Hugues Bersini, ChatGPT. Il était une fois une IA régressive », Distances et médiations des savoirs [En ligne], 48 | 2024, mis en ligne le 11 décembre 2024, consulté le 16 décembre 2024. URL : http://journals.openedition.org/dms/10859
Les intelligences artificielles génératives (dites IAG) sont désormais accessibles au grand public ; de nombreuses recherches émergent sur le sujet, donnant lieu à diverses manifestations scientifiques et publications d’études, de guides (UNESCO, 2023) et d’ouvrages. C’est en qualité d’acteur de l’éducation qu’Hugues Bersini propose un ouvrage intitulé « ChatGPT. Il était une fois une IA régressive. ». Publié aux Éditions de l’Université de Bruxelles en 2024, il s’inscrit dans la nouvelle collection « Débats », dont l’objectif est d’offrir des ouvrages scientifiques sous un format volontairement court, accessible et de référence sur des sujets d’actualité, et souvent controversés.
L’auteur est lui-même enseignant en informatique, technologie Web, business intelligence, programmation et intelligence artificielle (IA) à la faculté de polytechnique et à la Solvay Business School de l’Université libre de Bruxelles, dont il dirige le laboratoire d’intelligence artificielle. Il est de surcroît membre de l’Académie royale de Belgique.
Sans doute son parcours professionnel sur ces trente dernières années l’a-t-il inspiré dans la rédaction du présent ouvrage : il a en effet publié 14 livres français et 300 articles sur ses travaux de recherche qui couvrent les domaines des sciences cognitives, de l’IA pour le contrôle des processus, du connexionnisme, du contrôle flou, de l’apprentissage paresseux pour la modélisation et le contrôle, de l’apprentissage par renforcement, des réseaux biologiques, de l’utilisation des réseaux neuronaux pour les applications médicales, etc.
L’auteur est donc parfaitement légitime à la rédaction de cet ouvrage qui fait le pari de remonter aux origines – en respectant plus ou moins la chronologie – des développements de l’IA en 99 pages, accompagnées d’une bibliographie (constituée de 12 références), d’un glossaire de 5 pages, et organisés en 5 courts chapitres.
L’introduction de 11 pages, intitulée « Il était une fois une… Wouahhhh ! » rappelle l’enthousiasme qu’a connu l’IA, qui comptait des dizaines de millions d’utilisateurs quelques mois à peine après sa sortie : « La comète GPT a traversé notre ciel de façon spectaculaire et inattendue. » (9). Le lecteur y est tout de suite plongé dans l’univers des réseaux de neurones, si familier à l’auteur et qu’il convoque pour expliquer l’organisation de l’ouvrage que l’on comprend alors – et que l’on peut aussi légitimement redouter – très (trop ?) centré sur des considérations techniques. Toutefois, l’auteur nous tient habilement en haleine en posant plusieurs questions (pour lesquelles on ne peut s’empêcher d’espérer ne pas être que des questions rhétoriques) de type : L’IA symbolique a-t-elle encore un avenir ? Ou encore, est-ce à tort ou à raison que l’usage de ChatGPT n’aura de cesse de se généraliser, d’envahir de nombreux secteurs professionnels assujettis à une maîtrise du texte et du langage ?
Le premier chapitre s’intitule « Il était une fois les deux IA » (6 pages). Il présente les deux systèmes qui caractérisent la cognition humaine (système 1 et système 2) du psychologue et économiste Daniel Kahneman1. Il explique la différence entre les deux systèmes cognitifs : l’un plus séquentiel et basé sur des règles logiques et des symboles (le système cognitif 2), l’autre plus parallèle, basé sur les neurones, les connexions neuronales et l’apprentissage par l’expérience (le système cognitif 1). Selon l’auteur,
L’IA des origines a donné beaucoup trop d’importance au système 2, quintessence apparente de notre intelligence, en négligeant les processus cognitifs caractéristiques du système 1, pourtant ceux qui nous interfacent au monde, inaccessibles à la conscience, et qui toujours précédent le déclenchement du système [1].. (26-27).
Le chapitre 2 se nomme « Il était une fois les réseaux de neurones » (22 pages). Il illustre de manière schématisée comment un réseau de neurones profond arrive à distinguer un chien d’un chat sur une photo et explique que l’apprentissage des réseaux de neurones contribue à cette même identification de ces éléments graphiques primitifs. L’auteur en arrive rapidement à reprendre les raisons du succès et le côté multifonctionnel des réseaux de neurones en s’appuyant notamment sur l’exemple de ChatGPT :
Ainsi, dans ChatGPT, un mot devient un vecteur dans un espace numérique de centaines de dimensions, et les mots utilisés dans des contextes semblables sont proches les uns des autres dans et espace. Rien de mieux qu’un ordinateur pour jongler avec des myriades de quantités, triturer des vecteurs et des matrices de dimensions gigantesques. (32).
En ces termes, il est alors plus simple pour un lecteur non averti ou non familier avec l’ensemble de cette terminologie technique de comprendre qu’il s’agit, dans cet espace vectoriel, d’un rapprochement physique telle une similarité sémantique.
Après avoir justifié que les données de validation jouent le rôle d’aide du deuxième ensemble de données, l’auteur clôt ce second chapitre en soulevant une question liée à la maîtrise du langage parlé, comme écrit : celle-ci s’apparente-t-elle plutôt à un système cognitif de type 1, soit une prise en charge de type neuronal, ou de type 2, soit un traitement symbolique et sous forme de règles d’inférences explicites.
Le chapitre 3 se nomme « Il était une fois Noam Chomsky et Roger Schank » (10 pages). Le premier est linguiste et propose une « grammaire générative » en lien avec la nouvelle IA et capable, par apprentissage, ingestion et régurgitation, de générer des textes, des sons et des images.
C’est un peu plus simplement, au fil de la lecture lorsque l’auteur revient sur les origines de l’IA, qu’il est possible de comprendre que les premiers logiciels, s’ils découvraient la prémisse, en déduisaient la conclusion, construisant le raisonnement comme une succession d’inférences logiques s’enchaînant les unes aux autres.
Roger Schank, lui aussi linguiste, proposera dans les années 1970 et 1980 de nouvelles poussées en abstraction – sémantique de sorte à mieux appréhender les textes, et donc mieux comprendre une histoire. Même si les éléments de réponse ne figurent pas dans le texte en question, cette montée en abstraction doit permettre de la résumer, la traduire, et répondre à des questions la concernant : « C’est aussi à cette époque que les spécialistes de l’IA s’ingénient à élaborer de larges ontologies, ou réseaux sémantiques, composées de ces primitives sémantiques et de ce qui les relie conceptuellement. » (61).
Toutefois, toute cette GOGAI, acronyme convoqué pour l’anglicisme Good Old Fashioned AI, n’aura réussi à s’imposer face à l’arrivée de ChatGPT, dont l’auteur expose les soubassements neuronaux dans la suite de l’ouvrage.
Le chapitre 4 se nomme « Il était une fois les “transformers” » (17 pages). L’auteur rappelle que c’est au développement des géants du Web et de Google que l’on doit la délocalisation d’une large part de la recherche en IA en dehors des milieux académiques. Ces futurs génies de l’IA convoquent les compétences liées aux réseaux de neurones, et précisément dans le traitement du langage : la vectorisation numérique des mots et des textes, la succession de couches pour accompagner la montée en abstraction et la capacité, ou encore la jonction encodage-décodage.
La technique de « vectorisation » ou « word embedding » est minutieusement détaillée et illustrée, technique consistant à transformer les mots en les plongeant dans un espace vectoriel censé en capturer beaucoup mieux la signification profonde, permettant de transformer chaque mot en une signification, uniquement reprise par les statistiques de son mode d’emploi. L’auteur entre ensuite dans des considérations et détails mathématiques, alors même qu’il affirme ne pas vouloir le faire, avec des explications plutôt techniques sur comment encoder, prédire le mot qui suit et « l’apprentissage supervisé », grand classique quant à lui des apprentissages neuronaux.
L’apprentissage par renforcement, fonctionnant par récompenses et punitions, précède la section sur le génie du prompt, où est ici abordé un nouveau type de compétence, alors plus familier à tout un chacun : « (…) celle d’“ingénieur de prompt”, qui a la capacité de trouver ou de concevoir le meilleur prompt afin que le réseau de neurones puisse produire le résultat le plus intéressant en sortie. » (81). L’auteur fait ici écho à ses recherches, entreprises avec des collègues de son laboratoire de recherche, où a été élaboré un prompt par l’extraction de mots et de documents beaucoup plus en phase avec l’information recherchée et offrant des informations qui se révèlent souvent étonnantes de justesse, de lecture aisée et familière.
Le chapitre 5 est le dernier ; il se nomme « Il était une fois une régression » (10 pages). Il est rédigé dans une écriture assez complexe ; toutefois, le lecteur peut y retenir la section sur la construction du prompt qui séduit de plus en plus d’adeptes de l’IA, tant dans les univers professionnels qu’universitaires. À ce titre, l’auteur nous rappelle combien les étudiants en sont friands et se concentrent désormais sur la nécessité de trouver la meilleure façon de concevoir le prompt plutôt que sur la réflexion de fond sur le sujet. L’auteur soulève aussi la nécessité d’interroger les résultats obtenus pour accéder à des informations les plus proches possible de la « vérité » : « Il s’agit d’une progression lente, parfois laborieuse, par à-coups, en tension, instable, toujours en devenir, à questionner sans cesse, à la jonction d’opinions multiples mais qui graduellement convergent et se stabilisent sur ce qu’on finira par accepter comme “vrai”, provisoirement. » (86).
La conclusion de l’ouvrage fait 4 pages et s’intitule « La morale de l’histoire ». Elle revient très justement sur les inquiétudes liées à l’avènement de l’IA, et plus précisément de ChatGPT, et ce en lien avec les missions fondamentales des universités que sont l’enseignement et la recherche. En effet, ce développement exponentiel, et difficile à maîtriser, questionne tout particulièrement les professionnels de l’éducation sur la compréhension que l’on fait des écrits offerts par ces outils d’IA : « L’extraordinaire mise à disposition par les GAFAM des outils logiciels et de la puissance de calcul pour les exécuter se fait malheureusement au détriment de la réflexion de nos étudiants, qui se trouvent pieds et poings liés à ces géants du Web, qu’ils aspirent alors à rejoindre. » (97).
L’essai d’Hugues Bersini propose donc une synthèse intéressante, tout en restant très technique et pas toujours facile d’accès, en soulevant tout de même en fil rouge des axes de questionnements forts, mais sur lesquels un lecteur moins familier avec les considérations spécifiquement liées aux réseaux de neurones et plus enclin à la notion d’usage de l’IA aurait certainement espéré davantage de questions et/ou de réponses.
En effet, la place allouée à l’IA interroge et inquiète tout particulièrement les domaines de l’éducation et de la pédagogie ; les contenus générés soulèvent notamment la question fondamentale de la propriété intellectuelle et de l’identification des sources, de la réflexion ou de l’absence de réflexion et d’analyse autour des informations recueillies, et donc finalement des usages que peuvent en faire, tant les équipes pédagogiques que les étudiants. S’il est difficile – si ce n’est impossible (voir même illégitime) – d’empêcher ces acteurs d’y avoir recours, sans doute faut-il envisager désormais d’éduquer à l’usage de ces nouveaux outils.
S’il est tout à fait euphorisant d’imaginer l’ampleur des opportunités liées à l’IA dans l’enseignement et la pédagogie (correction de dissertations, etc.), sans doute faudra-t-il aussi s’interroger sur les risques de la perte progressive de la réflexion et de l’esprit critique chez les étudiants, qui ne maîtrisent pas encore complètement la rédaction des requêtes (dits prompts).
C’est pourquoi, les questions de l’accompagnement des usagers et celle d’une utilisation raisonnée et éthique de l’IA nous semblent véritablement une perspective de réflexion intéressante à l’issue de la lecture de cet ouvrage, ce dernier nous permettant d’affirmer in fine que le développement des IA dans l’éducation est à intégrer tel un moteur d’innovation offrant des perspectives incontestables dans le processus d’apprentissage.
Répondre à cet article
Suivre les commentaires : |