Un article repris du site de la chaire Unesco Ressource éducatives libres et intelligence artificielle REL-IA, une publication sous licence CC by
Nouvelle rubrique ! Nos projets autour des questions de l’IA pour l’éducation et/ou des Ressources Éducatives Libres nous conduisent à lire beaucoup. Et si certaines de ces lectures concernent des articles plus techniques, d’autres interpellent, interrogent. Nous allons essayer de partager ces interrogations avec vous.
Communiquer avec les baleines
Un rêve de nombre de chercheur·euses en informatique est d’utiliser les technologies auxquelles ils/elles ont accès pour comprendre les animaux. Ainsi, des bandes-son d’oiseaux, de baleines existent et l’on sait par exemple que les mêmes espèces de mésanges ne piaillent pas de la même façon selon le milieu dans lequel elles vivent. Il est donc possible de déterminer le milieu de vie d’une mésange, grâce à l’analyse de son chant !
On sait également que les baleines sont capables de communiquer à des centaines de kilomètres de distance les unes des autres. Dans un article récent (en anglais), les journalistes de l’Observer (Royaume-Uni) nous présentent le projet CETI dans lequel de nombreux chercheurs sont réunis pour tenter non seulement de comprendre le langage “baleine/cachalot”, mais de l’utiliser pour communiquer avec ces animaux.
Tricher avec l’IA
Avec l’IA qui arrive à l’école se pose la question des examens et surtout de la tricherie par IA. Si, à ce stade, nous n’avons pas encore trouvé d’articles sur le sujet (mais si un.e lecteur.rice a ça, on prend !), il y a un domaine pas si éloigné de l’éducation dans lequel l’IA et la tricherie font déjà -hélas- bon ménage : les échecs, un domaine particulier dans lequel l’IA est meilleure que l’humain. Un humain qui s’appuierait sur l’IA serait donc avantagé. Logiquement, il pourrait même battre le champion du monde Magnus Carlsen.
Pendant la pandémie, les joueurs d’échecs ont été amenés à disputer leurs tournois en ligne et le nombre d’éliminations pour tricherie présumée a été assez considérable. Cela a entraîné des analyses de la part de la FIDE (Fédération Internationale Des Échecs). Récemment, lors d’un tournoi tenu à New York, Magnus Carlsen est parti furieux car battu par un joueur de niveau supposé inférieur. On pourrait penser à un coup de chance, sauf que justement, aux échecs, la chance ne joue qu’un rôle modeste. Le champion du monde a accusé à demi-mot son adversaire d’avoir triché et d’avoir utilisé une IA pour le battre. Depuis, la polémique enfle.
Un premier sujet d’intérêt ici est : sur quoi Carlsen se base-t-il pour penser qu’il y a eu tricherie ? A-t-il vu son adversaire consulter son ordinateur ou son téléphone portable ? Non. Il se base sur le fait que les coups joués par son adversaire ne sont pas “humains”. Il a aussi pu vérifier ou faire vérifier si ces coups sont ceux que le logiciel utilisé par les champions (pour s’entraîner) recommande. Et (rappelons que le logiciel est plus fort que le champion du monde… depuis 1997) si son adversaire joue plusieurs coups qui surprennent le champion du monde, celui-ci est en droit de se poser des questions.
Dans le domaine éducatif, c’est une réaction assez classique des enseignant.es quand ils/elles corrigent une copie non anonyme : on s’attend à un niveau et quand l’élève/étudiant.e est bien meilleur.e qu’il/elle ne l’est habituellement, il y a “surprise”.
C’est une différence notable avec ce qu’on a vu essayé (et vendu par des entreprises) pour détecter la tricherie lors d’examens en ligne : des eye trackers permettent de suivre le mouvement des yeux pendant un examen et sont supposés permettre à un humain ou à un logiciel de voir s’il y a tricherie. Un peu comme l’enseignant.e qui, dans la classe, voit que les yeux de l’élève sont sur la copie de son/sa voisin.e.
Mais comme le tournoi de New York avait lieu “en présentiel”, la seconde question qui se pose est : comment l’adversaire de Carlsen a-t-il fait pour avoir accès aux coups recommandés par le logiciel ? La solution imaginée et rapportée dans cet article de Slate fera sourire (attention, moins de 18 ans s’abstenir), sauf qu’on est en droit de se demander si ce genre de solutions n’est pas appelé à se développer. Et alors, difficile d’imaginer détecter un mouvement des yeux !
Erica rit
Il y a quelques années, au Japon, j’ai eu la chance de rencontre Erica. Je rendais visite aux chercheurs de l’équipe du Professeur Inoue, qui est un des meilleurs spécialistes des robots humanoïdes. Cette équipe travaillait à l’époque sur un robot “personnel d’accueil” : Erica devait répondre aux questions du public et il était essentiel qu’elle “fasse humain”. Les chercheurs avaient à ce moment-là comme objectif de lui faire avoir des tics : clignements des yeux, haussement imperceptible -ou plutôt, justement, à peine perceptible- d’une épaule, mouvement inutile du menton…
La tâche était dans la droite ligne de la définition classique de l’intelligence artificielle : celle qui dit qu’il s’agit de savoir simuler l’intelligence humaine.
Dans cette courte vidéo, on voit Erica converser… et cligner les yeux.
Visiblement, ces mêmes chercheurs ont beaucoup progressé. Leur but, maintenant, est de faire rire un robot. Il s’agit de cataloguer les rires possibles et de faire apprendre par le robot humanoïde dans quel cas le rire est déclenché.
Cette recherche n’est pas anecdotique : un robot humanoïde cesse d’être perçu comme un robot. Lors de ma visite à Kyoto, j’ai cessé de voir Erica comme un robot et quand je suis parti, j’ai bien entendu dit au revoir à toute l’équipe. Et à Erica.
Quelques articles :
- en anglais :
- en français :
Robot PDG
En Chine, une femme robot nommée Tang Yu est dorénavant PDG d’une filiale de l’entreprise Netdragon Websoft. Comme nous pouvons le lire dans cet article, Tang Yu apparaît à l’écran sous une forme humaine et peut s’exprimer (virtuellement), grâce à un système d’IA.
Au travers de ce projet, initié en 2017, l’entreprise vise à montrer son savoir-faire technologique et l’utilité que peut avoir l’IA, par exemple dans les entreprises.
À l’heure où nous travaillons, dans le cadre de nos projets, sur les questions éthiques de l’IA et en particulier sur son rôle dans l’éducation, cette information nous interpelle : il ne s’agit plus d’une IA qui accompagne le décideur mais bien une IA qui pilote, qui est “aux commandes”. Nous reviendrons sur cette question bientôt, en particulier en regardant le rôle de l’IA en démocratie et la possibilité (voulue par certains) de voir l’IA prendre un rôle politique.
Le communiqué officiel de l’entreprise, concernant cette nomination, est consultable ici.
Sauf indication contraire, l’ensemble des contenus de ce site https://chaireunescorelia.univ-nantes.fr/ est mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.
Répondre à cet article
Suivre les commentaires : |