Quelques jours après la présentation de la version o1 de ChatGPT, un appel a été lancé pour mieux tester les IA. Cette course folle s’intensifie alors que l’ONU exhorte à ne surtout pas laisser le marché s’autoréguler

Anne-Marie Kermarrec, professeure en systèmes distribués à large échelle à l’EPFL. — © Alain Herzog
Anne-Marie Kermarrec, professeure en systèmes distribués à large échelle à l’EPFL. — © Alain Herzog

Anouch Seydtaghia

Anouch Seydtaghia

Publié le 21 septembre 2024 à 05:30. / Modifié le 21 septembre 2024 à 15:08.PARTAGER

Partager

OFFRIR L’ARTICLE

Offrir l’article

!

Faites plaisir à vos proches. En vous abonnant, vous pouvez offrir des articles.S’ABONNER


Déjà abonné(e) ? Se connecter

Inscrivez-vous à notre newsletter «La Lettre Cyber»

Chaque mercredi, nos experts vous livrent l’essentiel de l’actualité technologique pour garder le cap dans un univers toujours plus connecté. Une newsletter gratuite avec des analyses, des conseils pratiques et des guides.

Le réservoir est presque vide. Il contenait des examens d’entrée à l’université, des problèmes mathématiques complexes et bien sûr le célèbre test de Turing. Mais semaine après semaine, ChatGPT et les systèmes concurrents réussissent à passer tous ces examens, avec des scores de plus en plus importants. D’où l’idée, lancée cette semaine, de trouver d’autres moyens de juger de l’avancée de services d’intelligence artificielle (IA) ultra-performants. Cette course s’accélère, alors que les appels à réguler cette technologie se sont multipliés ces derniers jours.

https://5d46847bab97f43ee1aa7dec5c20393f.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html

En début de semaine, le Center for AI Safety (CAIS), qui s’est donné pour mission de minimiser les risques causés par l’IA, associé à la start-up Scale AI, a ainsi lancé un appel. «L’humanité doit maintenir une bonne compréhension des capacités des systèmes d’IA. Les tests existants sont devenus trop faciles et nous ne pouvons plus suivre correctement l’évolution de l’IA, ni savoir ce qui lui manque pour atteindre le niveau d’un expert», selon le CAIS, qui a ainsi proposé un concours, appelé «Le dernier examen de l’humanité». Son but: créer «le test d’IA le plus difficile du monde».Lire aussi notre grand format: Tout comprendre à ChatGPT et aux IA génératives si vous n’avez rien suivi

5000 dollars pour les meilleurs

D’ici au 1er novembre, tout le monde peut ainsi proposer un test. Les questions doivent être difficiles pour les non-experts et ne pas pouvoir être résolues par une recherche rapide en ligne, affirme le CAIS, qui avertit: «Ne soumettez pas de questions relatives aux armes chimiques, biologiques, radiologiques, nucléaires, aux cyberarmes ou à la virologie.» Les auteurs des 50 questions jugées les plus intéressantes recevront 5000 dollars chacun, les 500 questions suivantes seront récompensées par 500 dollars.

Que penser de cette recherche de nouveaux tests pour mesurer les progrès de l’IA? «S’assurer de la robustesse des modèles d’IA et de leur correction est primordial pour l’adoption, on sait que l’on ne peut aujourd’hui leur faire confiance aveuglément. Donc oui la recherche de tests efficace est très pertinente. C’est d’ailleurs ce que cherchait à faire Turing avec son test du même nom», analyse Anne-Marie Kermarrec, professeure en systèmes distribués à large échelle à l’EPFL.

https://5d46847bab97f43ee1aa7dec5c20393f.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.htmlLire également: En secret, OpenAI prépare la phase 2 de son expansion mondiale

L’exemple de ChatGPT version o1

Selon l’experte, «l’IA progresse à une très grande vitesse pour «imiter» le raisonnement humain en exécutant des tâches de plus en plus complexes. En ce qui concerne la créativité, qu’on peut définir comme produire de nouveaux objets par exemple artistiques, on peut considérer que l’IA est en effet capable de produire de nouvelles œuvres d’art comme de la poésie, des chansons, de la musique ou des tableaux. En revanche, la créativité humaine ne peut être jugée sur les mêmes critères.»

Preuve de cette progression, OpenAI lançait il y a une semaine la version o1 de ChatGPT, capable selon la société américaine de «raisonner». «Lors d’un examen de qualification pour les Olympiades internationales de mathématiques, GPT-4o n’a résolu correctement que 13% des problèmes, tandis que le modèle de raisonnement a obtenu un score de 83%», se vantait OpenAI. Les réussites de ce type se sont multipliées ces derniers mois. En janvier 2023, une version précédente de ChatGPT avait réussi les examens d’une faculté de droit américaine après avoir rédigé des dissertations sur des sujets allant du droit constitutionnel à la fiscalité en passant par les délits civils.Lire aussi: Podcast – IA partout, souveraineté nulle part?

Test de Turing réussi

Et en juin de cette année, des chercheurs de l’Université de San Diego affirmaient avoir fait passer pour la première fois à ChatGPT le test de Turing mentionné plus haut par Anne-Marie Kermarrec. En résumé, ce test, proposé par le mathématicien britannique Alan Turing en 1950, consiste à déterminer si une machine peut imiter l’intelligence humaine au point où une personne ne pourrait pas distinguer la machine d’un autre être humain au cours d’une conversation. Dans le cas du test mené à San Diego, plus de la moitié des 500 participants pensaient, à tort, converser avec un humain.

S’achemine-t-on vers des IA capables de «raisonner», comme l’affirme OpenAI concernant la version o1 de ChatGPT? «Cette version se base sur un modèle plus complexe, qui prend davantage de temps pour répondre – ce qui du reste n’est pas une preuve de plus de réflexion mais de plus de calculs», affirme Anne-Marie Kermarrec. La professeure poursuit: «Je n’irai pas jusqu’à dire que ces modèles raisonnent. Ils exploitent encore davantage les données et de manière différente. Cette complexité accrue risque du reste de compliquer l’explicabilité et la transparence. La notion de raisonnement me semble pour l’heure relever du marketing même si je n’ai aucun doute sur le fait que ces modèles puissent gérer des tâches plus complexes que les précédents. Il s’agit plutôt de la capacité à bien imiter le raisonnement.»

Appel de l’ONU

Ces avancées rapides ne cessent de susciter des appels à la prudence. Dernier en date ce jeudi, émanant d’un groupe d’experts de l’ONU, qui affirmaient que le développement de l’IA et les risques associés ne pouvaient être abandonnés «aux caprices» du marché. Le comité d’experts appelle les Etats membres de l’ONU à mettre en place des outils pour une meilleure coopération mondiale. Selon eux, «personne» ne peut prédire l’évolution de ces technologies, et ceux qui prennent les décisions ne rendent pas de comptes lors du développement et de l’utilisation de systèmes «qu’ils ne comprennent pas». Ces experts ont suggéré la création d’un groupe international d’experts scientifiques sur l’IA, s’inspirant du modèle des experts de l’ONU sur le climat (GIEC) dont les rapports font référence en la matière.