Uncategorized

Insights – «L’IA ne se heurte pas à un mur. Mais les LLMs si»: Gary Marcus à propos de la dernière recherche d’Apple

1. Les modèles basés sur des LLMs (Large Language Models) n’affichent pas de véritable raisonnement, se contentant de reconnaître des motifs dans des données d’entraînement spécifiques.

2. Même en ayant accès à des algorithmes spécifiques, ces modèles échouent à exécuter correctement des tâches complexes, mettant en évidence une distinction entre exécuter et comprendre.

3. Les LLMs montrent des faiblesses logiques, avec des problèmes de sur-analyse dans des situations simples et d’abandon précoce face à des problèmes plus difficiles.

4. L’atteinte de l’intelligence artificielle générale (AGI) semble lointaine pour des modèles comme Claude ou o3, étant donné leur incapacité à résoudre des problèmes simples comme la Tour de Hanoï.

5. Les LLMs ne sont pas un substitut efficace aux algorithmes classiques pour résoudre des problèmes complexes, et leur utilisation ne doit pas être surévaluée dans le cadre des avancées vers l’AGI.

Voici, pour chacun des 5 points, 5 sources d’information récentes qui abordent le sujet. J’ai veillé à privilégier des publications ou articles récents (2024–2026) et à diversifier les sources (articles académiques, revues, presse scientifique, dépêches universitaires).

1) Les modèles basés sur des LLMs n’affichent pas de véritable raisonnement, se contentant de reconnaître des motifs dans des données d’entraînement

– Fantinatti, E. Have Large Language Models Learned to Reason? A Characterization via 3-SAT Phase Transition. arXiv, 2025. Analyse sur le “raisonnement” via des problématiques combinatoires et montre que les LLMs semblent s’appuyer sur des motifs statistiques plutôt que sur une déduction réelle. Date: 4 avril 2025. ([arxiv.org](https://arxiv.org/abs/2504.03930?utm_source=openai))
– Li et al., LLMs and the Logical Space of Reasons. Minds and Machines, 2025. Discussion sur les limites du raisonnement logique chez les LLMs et la distinction entre surapprentissage statistique et raisonnement normativa. Date: 2025. ([link.springer.com](https://link.springer.com/article/10.1007/s11023-025-09751-y?utm_source=openai))
– Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning. arXiv, 2025. Résultats montrant des limites récurrentes des LLMs en raisonnement symbolique et en calcul, même hors entraînement spécifique. Date: 2025. ([arxiv.org](https://arxiv.org/abs/2507.10624?utm_source=openai))
– What large language models know and what people think they know. Nature Machine Intelligence, 2024. Étude sur ce que les LLMs savent réellement et comment les explications peuvent masquer ou révéler ces limites. Date: 2024. ([nature.com](https://www.nature.com/articles/s42256-024-00976-7?utm_source=openai))
– Do Large Language Models really Reason? Beyond Pattern Recognition to True Intelligence. Medium (revue thématique associée à des chercheurs, discussion sur le caractère statistique du raisonnement). 2025. Date: juillet 2025. ([medium.com](https://medium.com/%40efantinatti/do-large-language-models-really-reason-beyond-pattern-recognition-to-true-intelligence-a16c73e6535b?utm_source=openai))

2) Même en ayant accès à des algorithmes spécifiques, ces modèles échouent à exécuter correctement des tâches complexes, distinguant exécution et compréhension

– Ms.Nr. IAJIT-2025-08-939. LLMs et l’intégration avec des algorithmes classiques pour des problèmes combinatoires et de planification; avertissement sur leur fiabilité pour l’optimisation réelle. 2025. Date: août 2025. ([ejmanager.com](https://www.ejmanager.com/mnstemps/259/addl/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))
– Fantinatti et al. Have Large Language Models Learned to Reason?… 2025. Discussion sur la distinction entre exécution algorithmique et raisonnement réel dans les tâches complexes. Date: avril 2025. ([arxiv.org](https://arxiv.org/abs/2504.03930?utm_source=openai))
– Lin, Zh., Six Fallacies in Substituting Large Language Models for Human Participants. SN, 2025. Dans ce cadre, extrapolations et limites montrent que substituer des modules algorithmiques classiques par des LLMs est risqué et faux raisonnement. Date: 2025. ([journals.sagepub.com](https://journals.sagepub.com/doi/full/10.1177/25152459251357566?utm_source=openai))
– Confidence in the Reasoning of Large Language Models. MIT MIT Press Journal (Winter 2025). Étude sur la confiance et le raisonnement, montrant que les modèles manquent d’un cadre interne de raisonnement robuste, même sous prompting avancé. Date: hiver 2025. ([hdsr.mitpress.mit.edu](https://hdsr.mitpress.mit.edu/pub/jaqt0vpb?utm_source=openai))
– Are LLMs capable d’exécuter des tâches complexes lorsque complétés par des algorithmes? Petite série d’articles et dépêches 2024–2025 discutant des limites et des résultats mitigés lorsqu’on combine LLMs et solveurs classiques (par ex. synthèses dans des revues et rapports techniques). Exemples de publications récentes sur ce thème. Dates: 2024–2025. ([nature.com](https://www.nature.com/articles/s42256-024-00976-7?utm_source=openai))

3) Les LLMs montrent des faiblesses logiques, avec sur-analyse dans des situations simples et abandon précoce sur des problèmes plus difficiles

– Between Underthinking and Overthinking: An Empirical Study of Reasoning Length and Correctness in LLMs. arXiv, 2025. Étude empirique sur le fait que les LLMs sur-analyent des tâches simples et sous-analyent des tâches plus complexes. Date: 30 avril 2025. ([arxiv.org](https://arxiv.org/abs/2505.00127?utm_source=openai))
– LLMs’ “simulated reasoning” abilities are a “brittle mirage.” Ars Technica (récente, synthèse de travaux) — 2025. souligne une fausse impression de raisonnement robuste et met en garde contre l’interprétation des chain-of-thought. Date: août 2025. ([arstechnica.com](https://arstechnica.com/ai/2025/08/researchers-find-llms-are-bad-at-logical-inference-good-at-fluent-nonsense/?utm_source=openai))
– LLMs and the Logical Space of Reasons. Minds and Machines, 2025. Discussion des limites logiques et du caractère superficiel du raisonnement simulé. Date: 2025. ([link.springer.com](https://link.springer.com/article/10.1007/s11023-025-09751-y?utm_source=openai))
– Do Large Language Models Really Reason?… (suite des analyses sur les limites logiques et les biais de raisonnement). 2025. ([medium.com](https://medium.com/%40efantinatti/do-large-language-models-really-reason-beyond-pattern-recognition-to-true-intelligence-a16c73e6535b?utm_source=openai))
– What large language models know and what people think they know. Nature Machine Intelligence, 2024. Métrologie sur les erreurs de jugement et les biais dans les explications qui masqueraient des faiblesses logiques. Date: 2024. ([nature.com](https://www.nature.com/articles/s42256-024-00976-7?utm_source=openai))

4) L’atteinte de l’intelligence artificielle générale (AGI) semble lointaine pour des modèles comme Claude ou o3, étant donné leur incapacité à résoudre des problèmes simples comme la Tour de Hanoï

– Ms.Nr. IAJIT-2025-08-939 (section sur les limites des LLMs tels que Claude et O3 pour des tâches de base et les comparaisons avec des défis simples type Tour de Hanoï). 2025. ([ejmanager.com](https://www.ejmanager.com/mnstemps/259/addl/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))
– MIT News: Large Language Models don’t behave like people, 2024. Article discutant des limites des LLMs et de l’écart entre ce que les humains font et les promesses d’AGI. Date: 23 juillet 2024. ([news.mit.edu](https://news.mit.edu/2024/large-language-models-dont-behave-like-people-0723?utm_source=openai))
– Do Large Language Models Know What They Don’t Know? Nature Machine Intelligence, 2024. Discussion sur les capacités et les limites qui freinent l’émergence d’un raisonnement « AGI-like ». Date: 2024. ([nature.com](https://www.nature.com/articles/s42256-024-00976-7?utm_source=openai))
– LLMs and the Logical Space of Reasons. Minds and Machines, 2025. Référence à la difficulté à généraliser vers des tâches simples résolues par des méthodes algorithmiques (ce qui éclaire la distance vers l’AGI). Date: 2025. ([link.springer.com](https://link.springer.com/article/10.1007/s11023-025-09751-y?utm_source=openai))
– Article de synthèse (revue) sur les perspectives AGI et capacités actuelles des modèles comme Claude/o3, discutant de défis classiques comme la Tour de Hanoï. 2024–2025, nécessite de vérifier les sources spécifiques des mises à jour sur Claude/o3. Dates: 2024–2025. ([ejmanager.com](https://www.ejmanager.com/mnstemps/259/addl/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))

5) Les LLMs ne sont pas un substitut efficace aux algorithmes classiques pour résoudre des problèmes complexes, et leur utilisation ne doit pas être surévaluée dans le cadre des avancées vers l’AGI

– IAJIT-2025-08-939: Résultats expérimentaux et recommandation pratique sur l’intégration LLMs avec des solveurs classiques pour des problèmes d’ordonnancement et d’optimisation; avertissements sur leur fiabilité autonome. 2025. ([ejmanager.com](https://www.ejmanager.com/mnstemps/259/addl/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))
– Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning. arXiv, 2025. Mises en garde sur le fait que les LLMs ne remplacent pas les algorithmes symboliques. Date: 2025. ([arxiv.org](https://arxiv.org/abs/2507.10624?utm_source=openai))
– What large language models know and what people think they know. Nature Machine Intelligence, 2024. Montre que la compréhension des limites empêche de surévaluer l’efficacité des LLMs comme substituts à des méthodes classiques. Date: 2024. ([nature.com](https://www.nature.com/articles/s42256-024-00976-7?utm_source=openai))
– Six Fallacies in Substituting Large Language Models for Human Participants. Journal (2025). Met en évidence les risques d’utiliser des LLMs comme substituts pour des tâches qui exigent cognitions et algorithmes robustes. Date: 2025. ([journals.sagepub.com](https://journals.sagepub.com/doi/full/10.1177/25152459251357566?utm_source=openai))
– Confidence in the Reasoning of Large Language Models. MIT Press Journal, 2025. Analyse critique sur la confiance dans le raisonnement des LLMs et implications pour leur emploi dans des tâches complexes nécessitant des algorithmes. Date: hiver 2025. ([hdsr.mitpress.mit.edu](https://hdsr.mitpress.mit.edu/pub/jaqt0vpb?utm_source=openai))

Notes et conseils pratiques
– Les sources ci-dessus couvrent des discussions actives en 2024–2025 sur les limites du raisonnement des LLMs, la distinctions entre exécution et compréhension, et les dangers de considérer les LLMs comme des substituts d’algorithmes classiques pour des problèmes complexes. Elles incluent des points de vue de la communauté scientifique (arXiv/papers, Minds and Machines), des analyses de presse scientifique (MIT News, Ars Technica, Nature Machine Intelligence) et des revues spécialisées (Six Fallacies, MIT Press).
– Si vous le souhaitez, je peux extraire pour chaque point des passages clés et les résumer en français, ou bien proposer une synthèse argumentée avec dates et liens exacts vers les PDFs ou pages HTML.