Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme, notes de lectures - DMS-

23 mars 2024 par Briand Ressources 195 visites 0 commentaire

Un article repris de https://www.ripostecreativepedagogi...

Renaud Fabre et Aude Seurrat, « Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme », Distances et médiations des savoirs [En ligne], 45 | 2024, mis en ligne le 20 mars 2024, consulté le 23 mars 2024. URL : http://journals.openedition.org/dms/10002 ; DOI : https://doi.org/10.4000/dms.10002

Professeur émérite à Sorbonne-Université, Daniel Andler est à la fois mathématicien et philosophe. Il est membre de l’Académie des Sciences morales et politiques. Dans son dernier ouvrage, l’auteur se donne pour objectif de questionner les liens entre intelligence artificielle et intelligence humaine et montre en quoi cette question consiste en une « double énigme » portant à la fois sur nos conceptions de l’intelligence humaine et nos conceptions de l’intelligence artificielle.

L’ouvrage souligne d’emblée la polysémie de l’expression et en distingue trois sens : les institutions et la discipline de recherche qui produisent et promeuvent l’intelligence artificielle (dénommées IA dans le texte), ce que l’IA vise et ce qu’elle produit : l’auteur utilise le terme « intelligence artificielle », en toutes lettres et enfin les systèmes d’intelligence artificielle devenant SAI – pour Systèmes artificiels d’Intelligence –, c’est-à-dire les outils conçus pour résoudre des problèmes posés par les humains, dans des champs tels que le diagnostic médical, la traduction automatique ou encore la logistique.

Nous pourrions rapprocher la réflexion et la mise à distance opérée par l’auteur autour de l’intelligence artificielle à la notion de formule telle que développée par Alice Krieg-Planque en analyse du discours [1]. En effet, l’intelligence artificielle semble bien correspondre aux quatre caractéristiques de la formule : son figement sémantique (l’association d’« intelligence » à « artificielle »), sa polysémie, son inscription discursive. Cette expression est employée dans une pluralité d’espace discursifs et se charge d’enjeux et de significations différentes en fonction qu’elle est mobilisée dans la sphère scientifique, politique, industrielle, éducative, médiatique. Enfin, la dernière caractéristique de la formule est sa dimension polémique. Or, comme Daniel Andler le montre au fil des pages de son ouvrage et particulièrement en conclusion l’intelligence artificielle fait l’objet de débats et de controverses qui conduisent notamment à interroger sa dimension éthique.

Une des questions qui parcourt l’ouvrage est la suivante : peux-tu comparer l’intelligence humaine et l’intelligence artificielle ? « Prométhée, Icare ou Héphaïstos ? C’est la question centrale que pose l’intelligence artificielle » (p. 32). Daniel Andler répond à cette question complexe et alerte sur le fait que l’intelligence humaine ne peut se réduire à une somme de capacités et à la résolution de problèmes, mêmes complexes. Trois dimensions sont fondamentales pour l’appréhender : la conscience, le sens en contexte et les affects. Or, ce sont justement ces dimensions que l’intelligence artificielle ne sait pas mobilier. Comme l’explique l’auteur :

selon la conception de l’intelligence que je défends, l’intelligence au sens humain ne peut s’attacher qu’à un être humain. L’intelligence artificielle, sous quelque forme et à quelque degré de développement qu’elle soit, a pour vocation de résoudre des problèmes, ce qui n’est pour l’intelligence humaine qu’une mission secondaire (p. 17).

Cet ouvrage analyse les conceptions et développement de l’intelligence artificielle du milieu du xxe siècle jusqu’à aujourd’hui. Il se situe dans une perspective plus généalogique qu’historique puisqu’il montre en quoi, pour comprendre les enjeux présents, il faut aller questionner « les ressources intellectuelles qu’elle mobilise » (p. 49), les positionnements et prétentions à l’origine des différentes formes d’intelligence artificielle. Il rejoint en ce sens la perspective proposée par l’ouvrage Industrialiser la formation, anthologie commentée qui propose de revenir aux textes des pionniers de l’industrialisation de l’éducation pour en questionner les processus d’idéologisation [2]. Daniel Andler distingue à cet effet trois « âges » de l’intelligence artificielle. Comme l’explique l’auteur lorsqu’il parle des recherches actuelles cherchant à dépasser les limites du deep learning (DL) :

ces idées nouvelles viennent à maturité vers la fin de la décennie 2010 et inaugurent ce qui apparaît comme une possible troisième époque de l’IA, après l’âge du tout-symbolique et l’âge du tout-connexionniste culminant avec le DL classique (p. 146).

Une transition qui s’observe notamment avec le développement analysé par l’auteur des modèles massifs du langage. Si ce sont des tendances – car plusieurs modèles cohabitent à une même période, le connexionnisme n’ayant pas chassé totalement le symbolisme – elles permettent de mettre au jour certaines conceptions de la connaissance, rationaliste pour le symbolisme et l’empirisme et l’inductionisme pour le connexionnisme.

Au carrefour entre l’intelligence artificielle et l’intelligence humaine, Daniel Andler va jusqu’à interroger la « collaboration » [3] (Human-AI Teaming selon l’expression répandue en 2023) qui est désormais installée dans la production des résultats-notamment scientifiques [4], entre les deux apports, humains et IA, sur un vaste ensemble de mutations en cours. Les questions clefs d’interactions pour la science et pour la société sur cette nouvelle frontière sont posées par l’ouvrage : quel est le degré d’autonomie de l’IA, face à l’intelligence humaine ? Quelles validations humaines sont apportées aux résultats de l’IA ? Les validations ainsi apportées sont-elles limitées à la technique utilisée, vont-elles jusqu’à engager une « discussion » d’ordre scientifique ? Quels cas-type apparaissent où des résultats de l’IA sont utilisés-réutilisés par la science sans validation humaine préalable et avec quelles conséquences éthiques, scientifiques, sociétales ?

Telles sont les questions sur lesquelles l’ouvrage se prononce selon les multiples entrées annoncées par son plan, avec un niveau de précision, de clarté et d’étendue scientifique, qui tient la promesse du titre et de la démarche de recherche qu’il contient, et ceci avec une base d’indexation et de bibliographie globale, à jour au dernier trimestre de 2023.

Bien sûr, le postulat d’ouverture indéfinie de la pensée humaine vient rivaliser a priori conclusivement, avec la finitude, si sophistiquée soit-elle, des systèmes inertes issus de l’IA. « Ensemble », toutefois, ces collaborations questionnent la qualité et l’étendue de réaction et d’adaptation de « l’intelligence humaine », telle qu’elle est perçue à partir des analyses les plus actuelles de la science des données pratiquée aux meilleurs niveaux. [5] Terrain glissant…

Dans leurs formes extrêmes, ces interrogations sur les « performances adaptatives » en cours ne trouvent pas de réponse stabilisée dans la littérature : face aux défis les plus spectaculaires lancés par l’IA à l’intelligence humaine [6]. La communauté scientifique adopte une position ouverte et commence tout juste à se positionner en cherchant avant tout à « minimiser les risques » (risk mitigationest l’expression qu’utilise la politique d’IA fédérale des États-Unis précitée), n’écartant pas un pari aux accents parfois faustiens, décelable dans les revues les plus récentes de littérature analytique, [7] tout en laissant poindre une inquiétude diffuse, mais palpable dans les enquêtes d’opinion [8]. C’est le moment de nous souvenir, en écartant d’emblée l’anathème, des réflexions de Thomas Khun, sur l’irrattrapable retard de la pensée courante sur la découverte [9], sur la victorieuse désinvolture des défricheurs faisant front « contre la méthode » [10]

Dans le présent contexte, qui reste largement inédit, et face a la « replicability crisis » qui parcourt une part de la communauté scientifique [11], l’analyse proposée par Daniel Andler fournit de précieux points de repères, rédigés sans détours, tout en stimulant le nécessaire doute méthodique face aux questions sans réponse sur les « boites noires », observées par ce spécialiste renommé issu des sciences cognitives : « L’intelligence artificielle qui s’explique est aujourd’hui de l’ordre de la promesse » (p. 140).

Aux marges de l’ouvrage, mais en relation étroite avec les questions où nous guide Daniel Andler, se posent deux ordres de questions, sur l’interaction Humain-IA qu’il nous faut vivre en cherchant à mieux comprendre, et qui restent encore peu posées. Une première est celle du poids croissant du passé, tel qu’il est intégré dans les systèmes automatiques actuels. L’induction, « la capacité des SAI à prédire l’avenir à partir de l’observation du passé » (p. 361) qui hante l’essentiel de l’IA actuelle, tend à accorder au passé un poids tendanciellement croissant au fil du développement rapide des « mémoires » de l’IA, dans la construction des projections de l’avenir. Cette hausse tendancielle de la part de l’information passée, du précédent pourrait-on dire, laisse ainsi craindre une « asphyxie informationnelle » d’essence conservatrice. Plus près de nous, deuxième question, l’IA laisse ressentir le poids de ses limites technologiques dans la prise en compte des controverses et des informations contradictoires, nuisant ainsi largement à l’équilibre communicationnel des réseaux sociaux. Ces limites paraissent aujourd’hui, début 2024, trouver un chemin pour être mieux maitrisées.

L’ouvrage de Daniel Andler permet enfin de poser la question de l’éthique face au développement de l’intelligence artificielle. Comment faire en sorte qu’elle ne devienne pas une machine transformatrice de la société des hommes malgré eux ? Pour l’auteur cette réflexion éthique « est devant nous » (p. 340). Il montre dès lors en quoi le développement des SAI doit avoir toujours comme ligne de mire le fait que la responsabilité des conséquences doit toujours être une affaire humaine. Et il termine son ouvrage en mobilisant une citation de Joseph Weizenbaum de 1976 : « puisque nous n’avons aucun moyen de faire que les ordinateurs soient sages, nous ne devrions pas pour le moment leur confier des tâches qui requièrent de la sagesse » (p. 362).

Cet ouvrage porte ainsi une réflexion particulièrement fine sur l’histoire, les conceptions, les enjeux et les perspectives théoriques de l’IA. Nous pouvons néanmoins pointer que les questions socio-économiques et socio-politiques relatives à l’IA sont peu présentes. Or, si l’on prend par exemple le secteur de l’éducation, cette question de la prétention des acteurs privés de la Edtech à intervenir dans l’éducation est particulièrement importante. Enfin même si cet ouvrage ne traite pas directement des questions d’éducation et de formation, les questionnements très approfondis qu’il mobilise semblent particulièrement importants à poser pour penser le rôle de l’intelligence artificielle dans les transformations actuelles qui affectent l’éducation aujourd’hui. Cette perspective philosophique développée par Daniel Andler pourrait à cet égard nourrir fort utilement la formation des enseignants à cette question et montrer la nécessité de s’appuyer sur l’histoire et l’analyse des idées pour développer une posture à la fois constructive et critique.

Licence : CC by-sa

Notes

[1Krieg-Planque A. (2009), La notion de « formule » en analyse du discours. Cadre théorique et méthodologique, Presses universitaires de Franche-Comté, coll. « Annales littéraires »

[2Moeglin P. (dir.) (2016), Industrialiser l’éducation. Anthologie commentée (1913-2012), Presses universitaires de Vincennes.

[3Terme par lequel est généralement traduit « teaming », dans le contexte des relations entre humains et IA.

[5Meng, X.-L. (2023). Human Intelligence, Artificial Intelligence, and Homo sapiens Intelligence ? Harvard Data Science Review, 5(4). DOI : 10.1162/99608f92.11d9241f.

[6Trinh, T.H., Wu, Y., Le, Q.V. et al. (2024). Solving olympiad geometry without human demonstrations. Nature, 625, 476-482. DOI : 10.1038/s41586-023-06747-5.

[7Wang, H., Fu, T., Du, Y. et al. (2023). Scientific discovery in the age of artificial intelligence. Nature, 620, 47-60. DOI : 10.1038/s41586-023-06221-2.

[9DESBOIS Sophie, (2013). « La Structure des révolutions scientifiques, de Thomas Kuhn ». Dans T. Lepeltier (Dir.) Histoire et philosophie des sciences. Auxerre, Éditions Sciences Humaines, coll. « Petite bibliothèque », (p. 163-163). DOI : 10.3917/sh.lepel.2013.01.0163.

[10.Preston, John, « Paul Feyerabend ». Dans E. N. Zalta (Dir.), The Stanford Encyclopedia of Philosophy (Fall 2020 Edition), https://plato.stanford.edu/archives/fall2020/entries/feyerabend/ (consulté le 19 mars 2024).

[11Vilhuber, L., Schmutte, I., Michuda, A. et Connolly, M. (2023). Reinforcing Reproducibility and Replicability : An Introduction. Harvard Data Science Review, 5(3). DOI : 10.1162/99608f92.9ba2bd43.

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom