Paradoxe de Moravec: les 5 choses qu’un bébé comprend mieux qu’une IA géante… et que l’industrie préfère oublier

On nous répète partout que l’intelligence artificielle devient plus forte que l’humain. Elle écrit, résume, code, bluffe, répond vite et impressionne à la première lecture. Pourtant, derrière cette vitrine, un vieux problème reste entier. Une machine peut discuter de physique pendant dix minutes et rester incapable de comprendre une scène simple que n’importe quel enfant saisit presque sans effort. C’est précisément ce que raconte le paradoxe de Moravec, un concept ancien que beaucoup redécouvrent aujourd’hui. Des synthèses comme cette explication sur les tâches intellectuelles et physiques enIA ou cette présentation du paradoxe de Moravec montrent bien le cœur du problème : les tâches qui nous semblent “hautes” sont parfois plus faciles pour les machines que les gestes les plus naturels du quotidien.

Ce qu’est vraiment le paradoxe de Moravec

Le paradoxe de Moravec part d’un constat très simple. Ce qui nous paraît difficile à apprendre à l’école, comme calculer, jouer aux échecs ou manipuler des symboles, se code souvent mieux que ce qui nous paraît instinctif. Marcher, attraper un objet fragile, sentir qu’un ballon qui roule sur la route annonce un danger, tout cela reste redoutable pour une machine. Des auteurs de vulgarisation récents, comme ce billet sur le mystère du paradoxe de Moravec, rappellent que nos capacités sensorimotrices viennent de millions d’années d’évolution. En face, les compétences symboliques, plus récentes dans l’histoire humaine, se laissent souvent formaliser plus facilement. Dit autrement, la machine réussit parfois là où l’humain transpire, mais elle trébuche là où le corps humain agit presque sans y penser.

Ce paradoxe ne relève pas du détail technique. Il touche au cœur de ce que beaucoup appellent trop vite “intelligence”. Une machine qui bat un champion au jeu de go n’a pas forcément le bon sens d’un enfant de deux ans face à une tasse posée au bord d’une table. Et c’est là que le récit dominant sur l’IA commence à se fissurer. Car parler brillamment du monde n’équivaut pas à le comprendre.

Voir aussi:  Stanley Meyer - Une Voiture qui Roule à l’Eau

Les 5 choses qu’un bébé comprend mieux qu’une IA géante

Commençons par la plus évidente : la gravité. Un enfant lâche une cuillère, la voit tomber, recommence, puis comprend très vite qu’un objet ne flotte pas dans le vide. Il n’a pas besoin d’un corpus de milliards de phrases pour intégrer cette règle. La machine, elle, peut décrire la loi de Newton, mais cela ne signifie pas qu’elle “sent” la chute. C’est justement ce décalage que des textes comme WhyAIstruggleswiththeeasystuff mettent en avant quand ils opposent le langage à l’intuition physique.

Ensuite, il y a la marche. Un bébé tombe, ajuste son corps, recommence, puis finit par traverser une pièce. Il apprend dans le bruit, dans le déséquilibre, dans l’imprévu. Un robot, lui, a souvent besoin d’un cadre beaucoup plus contrôlé. Dès que le sol change, qu’un objet traîne ou qu’un angle surprend, les difficultés explosent. Des articles de vulgarisation comme celui-ci sur les tâches physiques enIA rappellent que la locomotion reste un cauchemar discret de la robotique, malgré les prouesses médiatisées.

Troisième point : reconnaître un visage familier dans un environnement chargé. Un enfant repère très vite sa mère, son père, un proche, même avec du bruit, du mouvement ou une lumière moyenne. Une machine peut, bien sûr, identifier des traits dans une base de données. Mais cette reconnaissance demande des systèmes coûteux, des conditions de capture, des réglages et des compromis. Là encore, le cerveau humain réalise en continu ce que la machine segmente en modules distincts.

Quatrième exemple : anticiper un danger à partir d’un signe minuscule. Un ballon qui roule vers la route n’est pas seulement un objet. Pour un humain, c’est un indice. Il peut annoncer qu’un enfant surgira juste après. Cette inférence semble banale. Pourtant, elle résume une compréhension du monde, du contexte et de la causalité. C’est exactement le type de sujet que la CNIL, via leLINC, place au cœur des débats sur les modèles prédictifs, les véhicules autonomes et les systèmes qui devront agir dans le monde réel.

Voir aussi:  Défiscalisation pour Israël: Enquête sur un système méconnu qui coûte cher à l’État français

Enfin, il y a la manipulation d’objets fragiles. Un enfant apprend assez vite qu’un verre se casse, qu’une assiette glisse, qu’un objet lourd ne se manipule pas comme une peluche. Cette compréhension mêle force, matière, équilibre, texture et expérience. Pour la machine, chaque détail compte. Il faut mesurer, estimer, recalculer, corriger. Ce qui paraît simple dans une cuisine ordinaire devient un casse-tête dès qu’on veut l’automatiser proprement. Et ce point, justement, gêne les discours trop enthousiastes sur les robots du quotidien.

Pourquoi les LLM ne règlent pas ce problème

À ce stade, beaucoup objectent la même chose : les LLM progressent vite, donc ce retard finira bien par disparaître. C’est possible sur certains usages. Mais le fond du problème reste là. Un LLM travaille d’abord sur des suites de mots. Il prédit, prolonge, reformule. Il peut donner une illusion de compréhension profonde tout en restant séparé du monde physique. Le LINC de laCNIL l’explique très bien : un modèle de langage capte des corrélations dans les textes, alors qu’un world model cherche à représenter des dynamiques du réel, des transitions, des interactions, des contraintes spatiales et temporelles.

C’est justement pour cette raison que de plus en plus de chercheurs parlent aujourd’hui de world models et d’architectures comme JEPA. Des synthèses comme WorldModels,JEPAandVL-JEPA ou des analyses plus techniques comme cette décomposition des world models montrent le tournant en cours. L’idée n’est plus seulement de bien parler. L’idée consiste à mieux prévoir. C’est d’ailleurs le lien naturel avec notre autre article sur YannLeCun,lesLLMetlesmodèlesdumonde, qui raconte cette fracture plus en détail.

Voir aussi:  Le vrai rôle des Young Global Leaders sur la scène mondiale

Ce que ce paradoxe change pour les robots, les voitures et la suite

Le paradoxe de Moravec ne sert pas qu’à briller dans une discussion. Il force à regarder l’avenir de l’IA avec un peu plus de précision. Si les machines continuent à mal gérer l’imprévu physique, alors les promesses autour des robots domestiques, des voitures autonomes ou des systèmes de décision critiques doivent être relues avec calme. Le sujet ne disparaît pas parce qu’un chatbot parle bien. Au contraire, plus la machine semble convaincante, plus ses angles morts peuvent passer inaperçus. Et c’est là que le risque grandit.

La réflexion récente duLINC sur la place de l’humain dans les world models montre bien que la prochaine bataille ne portera pas seulement sur la performance brute. Elle portera aussi sur les données, sur la manière de modéliser le réel, sur les erreurs acceptables, sur les décisions qu’on délègue et sur celles qu’on devrait garder sous surveillance humaine. Au fond, ce vieux paradoxe pose une question très actuelle: si une machine excelle dans le langage mais reste maladroite face au réel, qu’est-ce qu’on appelle exactement “intelligence” ? La réponse n’est peut-être pas là où le marketing nous demande de regarder. Elle se cache peut-être dans ces gestes minuscules que même un bébé accomplit sans discours, sans interface et sans effet d’annonce.