Aujourd'hui, nous vivons une époque de profusion technologique. Il ne se passe pas un mois sans qu'une nouvelle version de ChatGPT, de Claude ou de Gemini ne vienne susciter l'étonnement. Nous disposons désormais de machines capables de réussir l'examen du barreau, de diagnostiquer des pathologies rares que des médecins chevronnés ont manquées ou de rédiger des poèmes à la manière de Baudelaire en moins de trois secondes. Pour beaucoup, le sommet est atteint : l'intelligence artificielle serait née.
Le paradoxe de Moravec
Mais ne serions-nous pas en train de confondre la carte avec le territoire ? Ces modèles donnent l'illusion de comprendre le monde alors qu'ils ne manipulent en réalité que des représentations de ce dernier. Le vrai problème, celui qui empêche Yann LeCun, l'un des trois pères fondateurs du deep learning, de dormir, réside dans le paradoxe de Moravec. Les tâches qui nous paraissent intellectuellement complexes sont souvent plus faciles à reproduire pour une machine que celles qui nous semblent intuitives et évidentes.
Par exemple, un enfant de vingt-quatre mois qui ne sait pas encore aligner correctement une phrase arrive à comprendre la gravité après avoir jeté sa cuillère par terre trois fois. À l'inverse, un grand modèle de langage (LLM) a besoin de digérer l'intégralité de l'internet et des pétaoctets de données pour simuler péniblement une conversation sur la physique. Si vous interrogez ChatGPT sur une tasse de café en équilibre sur le rebord d'une table, il répondra avec brio en citant Newton, mais il ne calcule pas la chute : il récite le script de la chute.
Une course aux ressources
Aujourd'hui, l'industrie fait un pari très coûteux en ressources. La croyance dominante veut qu'en ajoutant assez de données, de processeurs graphiques et de textes, la compréhension du monde finira par émerger de la manipulation des mots. On assiste ainsi à une course aux gigawatts pour bâtir les plus grands centres de données possibles. Yann LeCun affirme que cette voie est une impasse. Même lorsqu'il officiait chez Meta, il déclarait que le modèle des LLM ne l'intéressait plus vraiment.
Selon lui, nous essayons d'apprendre à quelqu'un à piloter un avion en lui faisant lire des millions de manuels de vol sans jamais le laisser toucher un cockpit. En conséquence, il opte pour une thèse singulière qui va à contre-courant des stratégies de Google, Microsoft ou OpenAI : l'intelligence n'est pas la maîtrise du langage, mais celle de la causalité. Comprendre le monde, ce n'est pas prédire le mot suivant dans une phrase, c'est être capable de simuler mentalement les conséquences d'une action physique.
Ce chercheur évoque des systèmes qui disposeraient de ce qu'il appelle un modèle du monde. Pour accomplir ce miracle, il n'a pas eu besoin de supercalculateurs à un milliard de dollars pour établir sa preuve de concept, mais d'une intuition mathématique dont la promesse est de renvoyer nos algorithmes modernes au musée de la préhistoire. Pour comprendre cette obsession, il faut saisir la logique des modèles autorégressifs actuels qui reposent sur la prédiction probabiliste du prochain fragment de texte.
Certes, l'intelligence artificielle a dépassé le stade de la simple statistique pour simuler une forme de réflexion logique, mais en restant à la surface des mots, elle ne touche jamais la structure profonde du réel. Pour ces machines, le concept de pomme reste une suite de jetons numériques sans ancrage matériel. Cette déconnexion entre le verbe et la matière souligne les limites d'une technologie qui, malgré ses prouesses narratives, demeure incapable de saisir les lois fondamentales qui régissent notre environnement quotidien.
La maîtrise de la causalité
L'évolution de l'intelligence artificielle semble ainsi se heurter à un plafond de verre que seule une révolution architecturale pourra briser. Alors que les investissements massifs continuent de pleuvoir sur les modèles de langage, la recherche fondamentale rappelle que la véritable intelligence exige une confrontation directe avec la réalité physique et ses mécanismes de cause à effet.
- Import manuel
Votre soutien est plus essentiel que jamais.
Cet article vous est offert gratuitement par NATIONO. Notre rédaction garantit son indépendance en refusant toute influence. Votre contribution, même modeste, est le moteur de notre liberté.
Soutenir NATIONO


