{"id":34,"date":"2025-06-10T06:02:36","date_gmt":"2025-06-10T06:02:36","guid":{"rendered":"https:\/\/1ntel.fr\/index.php\/2025\/06\/10\/insights-lia-ne-se-heurte-pas-a-un-mur-mais-les-llms-si-gary-marcus-a-propos-de-la-derniere-recherche-dapple\/"},"modified":"2025-06-10T06:02:36","modified_gmt":"2025-06-10T06:02:36","slug":"insights-lia-ne-se-heurte-pas-a-un-mur-mais-les-llms-si-gary-marcus-a-propos-de-la-derniere-recherche-dapple","status":"publish","type":"post","link":"https:\/\/1ntel.fr\/index.php\/2025\/06\/10\/insights-lia-ne-se-heurte-pas-a-un-mur-mais-les-llms-si-gary-marcus-a-propos-de-la-derniere-recherche-dapple\/","title":{"rendered":"Insights &#8211; \u00abL\u2019IA ne se heurte pas \u00e0 un mur. Mais les LLMs si\u00bb: Gary Marcus \u00e0 propos de la derni\u00e8re recherche d&rsquo;Apple"},"content":{"rendered":"<p>1. Les mod\u00e8les bas\u00e9s sur des LLMs (Large Language Models) n&rsquo;affichent pas de v\u00e9ritable raisonnement, se contentant de reconna\u00eetre des motifs dans des donn\u00e9es d&rsquo;entra\u00eenement sp\u00e9cifiques.<\/p>\n<p>2. M\u00eame en ayant acc\u00e8s \u00e0 des algorithmes sp\u00e9cifiques, ces mod\u00e8les \u00e9chouent \u00e0 ex\u00e9cuter correctement des t\u00e2ches complexes, mettant en \u00e9vidence une distinction entre ex\u00e9cuter et comprendre.<\/p>\n<p>3. Les LLMs montrent des faiblesses logiques, avec des probl\u00e8mes de sur-analyse dans des situations simples et d&rsquo;abandon pr\u00e9coce face \u00e0 des probl\u00e8mes plus difficiles.<\/p>\n<p>4. L&rsquo;atteinte de l&rsquo;intelligence artificielle g\u00e9n\u00e9rale (AGI) semble lointaine pour des mod\u00e8les comme Claude ou o3, \u00e9tant donn\u00e9 leur incapacit\u00e9 \u00e0 r\u00e9soudre des probl\u00e8mes simples comme la Tour de Hano\u00ef.<\/p>\n<p>5. Les LLMs ne sont pas un substitut efficace aux algorithmes classiques pour r\u00e9soudre des probl\u00e8mes complexes, et leur utilisation ne doit pas \u00eatre sur\u00e9valu\u00e9e dans le cadre des avanc\u00e9es vers l&rsquo;AGI. <\/p>\n<p>Voici, pour chacun des 5 points, 5 sources d\u2019information r\u00e9centes qui abordent le sujet. J\u2019ai veill\u00e9 \u00e0 privil\u00e9gier des publications ou articles r\u00e9cents (2024\u20132026) et \u00e0 diversifier les sources (articles acad\u00e9miques, revues, presse scientifique, d\u00e9p\u00eaches universitaires).<\/p>\n<p>1) Les mod\u00e8les bas\u00e9s sur des LLMs n\u2019affichent pas de v\u00e9ritable raisonnement, se contentant de reconna\u00eetre des motifs dans des donn\u00e9es d\u2019entra\u00eenement<\/p>\n<p>&#8211; Fantinatti, E. Have Large Language Models Learned to Reason? A Characterization via 3-SAT Phase Transition. arXiv, 2025. Analyse sur le \u201craisonnement\u201d via des probl\u00e9matiques combinatoires et montre que les LLMs semblent s\u2019appuyer sur des motifs statistiques plut\u00f4t que sur une d\u00e9duction r\u00e9elle. Date: 4 avril 2025. ([arxiv.org](https:\/\/arxiv.org\/abs\/2504.03930?utm_source=openai))<br \/>\n&#8211; Li et al., LLMs and the Logical Space of Reasons. Minds and Machines, 2025. Discussion sur les limites du raisonnement logique chez les LLMs et la distinction entre surapprentissage statistique et raisonnement normativa. Date: 2025. ([link.springer.com](https:\/\/link.springer.com\/article\/10.1007\/s11023-025-09751-y?utm_source=openai))<br \/>\n&#8211; Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning. arXiv, 2025. R\u00e9sultats montrant des limites r\u00e9currentes des LLMs en raisonnement symbolique et en calcul, m\u00eame hors entra\u00eenement sp\u00e9cifique. Date: 2025. ([arxiv.org](https:\/\/arxiv.org\/abs\/2507.10624?utm_source=openai))<br \/>\n&#8211; What large language models know and what people think they know. Nature Machine Intelligence, 2024. \u00c9tude sur ce que les LLMs savent r\u00e9ellement et comment les explications peuvent masquer ou r\u00e9v\u00e9ler ces limites. Date: 2024. ([nature.com](https:\/\/www.nature.com\/articles\/s42256-024-00976-7?utm_source=openai))<br \/>\n&#8211; Do Large Language Models really Reason? Beyond Pattern Recognition to True Intelligence. Medium (revue th\u00e9matique associ\u00e9e \u00e0 des chercheurs, discussion sur le caract\u00e8re statistique du raisonnement). 2025. Date: juillet 2025. ([medium.com](https:\/\/medium.com\/%40efantinatti\/do-large-language-models-really-reason-beyond-pattern-recognition-to-true-intelligence-a16c73e6535b?utm_source=openai))<\/p>\n<p>2) M\u00eame en ayant acc\u00e8s \u00e0 des algorithmes sp\u00e9cifiques, ces mod\u00e8les \u00e9chouent \u00e0 ex\u00e9cuter correctement des t\u00e2ches complexes, distinguant ex\u00e9cution et compr\u00e9hension<\/p>\n<p>&#8211; Ms.Nr. IAJIT-2025-08-939. LLMs et l\u2019int\u00e9gration avec des algorithmes classiques pour des probl\u00e8mes combinatoires et de planification; avertissement sur leur fiabilit\u00e9 pour l\u2019optimisation r\u00e9elle. 2025. Date: ao\u00fbt 2025. ([ejmanager.com](https:\/\/www.ejmanager.com\/mnstemps\/259\/addl\/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))<br \/>\n&#8211; Fantinatti et al. Have Large Language Models Learned to Reason?\u2026 2025. Discussion sur la distinction entre ex\u00e9cution algorithmique et raisonnement r\u00e9el dans les t\u00e2ches complexes. Date: avril 2025. ([arxiv.org](https:\/\/arxiv.org\/abs\/2504.03930?utm_source=openai))<br \/>\n&#8211; Lin, Zh., Six Fallacies in Substituting Large Language Models for Human Participants. SN, 2025. Dans ce cadre, extrapolations et limites montrent que substituer des modules algorithmiques classiques par des LLMs est risqu\u00e9 et faux raisonnement. Date: 2025. ([journals.sagepub.com](https:\/\/journals.sagepub.com\/doi\/full\/10.1177\/25152459251357566?utm_source=openai))<br \/>\n&#8211; Confidence in the Reasoning of Large Language Models. MIT MIT Press Journal (Winter 2025). \u00c9tude sur la confiance et le raisonnement, montrant que les mod\u00e8les manquent d\u2019un cadre interne de raisonnement robuste, m\u00eame sous prompting avanc\u00e9. Date: hiver 2025. ([hdsr.mitpress.mit.edu](https:\/\/hdsr.mitpress.mit.edu\/pub\/jaqt0vpb?utm_source=openai))<br \/>\n&#8211; Are LLMs capable d\u2019ex\u00e9cuter des t\u00e2ches complexes lorsque compl\u00e9t\u00e9s par des algorithmes? Petite s\u00e9rie d\u2019articles et d\u00e9p\u00eaches 2024\u20132025 discutant des limites et des r\u00e9sultats mitig\u00e9s lorsqu\u2019on combine LLMs et solveurs classiques (par ex. synth\u00e8ses dans des revues et rapports techniques). Exemples de publications r\u00e9centes sur ce th\u00e8me. Dates: 2024\u20132025. ([nature.com](https:\/\/www.nature.com\/articles\/s42256-024-00976-7?utm_source=openai))<\/p>\n<p>3) Les LLMs montrent des faiblesses logiques, avec sur-analyse dans des situations simples et abandon pr\u00e9coce sur des probl\u00e8mes plus difficiles<\/p>\n<p>&#8211; Between Underthinking and Overthinking: An Empirical Study of Reasoning Length and Correctness in LLMs. arXiv, 2025. \u00c9tude empirique sur le fait que les LLMs sur-analyent des t\u00e2ches simples et sous-analyent des t\u00e2ches plus complexes. Date: 30 avril 2025. ([arxiv.org](https:\/\/arxiv.org\/abs\/2505.00127?utm_source=openai))<br \/>\n&#8211; LLMs\u2019 \u201csimulated reasoning\u201d abilities are a \u201cbrittle mirage.\u201d Ars Technica (r\u00e9cente, synth\u00e8se de travaux) \u2014 2025. souligne une fausse impression de raisonnement robuste et met en garde contre l\u2019interpr\u00e9tation des chain-of-thought. Date: ao\u00fbt 2025. ([arstechnica.com](https:\/\/arstechnica.com\/ai\/2025\/08\/researchers-find-llms-are-bad-at-logical-inference-good-at-fluent-nonsense\/?utm_source=openai))<br \/>\n&#8211; LLMs and the Logical Space of Reasons. Minds and Machines, 2025. Discussion des limites logiques et du caract\u00e8re superficiel du raisonnement simul\u00e9. Date: 2025. ([link.springer.com](https:\/\/link.springer.com\/article\/10.1007\/s11023-025-09751-y?utm_source=openai))<br \/>\n&#8211; Do Large Language Models Really Reason?\u2026 (suite des analyses sur les limites logiques et les biais de raisonnement). 2025. ([medium.com](https:\/\/medium.com\/%40efantinatti\/do-large-language-models-really-reason-beyond-pattern-recognition-to-true-intelligence-a16c73e6535b?utm_source=openai))<br \/>\n&#8211; What large language models know and what people think they know. Nature Machine Intelligence, 2024. M\u00e9trologie sur les erreurs de jugement et les biais dans les explications qui masqueraient des faiblesses logiques. Date: 2024. ([nature.com](https:\/\/www.nature.com\/articles\/s42256-024-00976-7?utm_source=openai))<\/p>\n<p>4) L\u2019atteinte de l\u2019intelligence artificielle g\u00e9n\u00e9rale (AGI) semble lointaine pour des mod\u00e8les comme Claude ou o3, \u00e9tant donn\u00e9 leur incapacit\u00e9 \u00e0 r\u00e9soudre des probl\u00e8mes simples comme la Tour de Hano\u00ef<\/p>\n<p>&#8211; Ms.Nr. IAJIT-2025-08-939 (section sur les limites des LLMs tels que Claude et O3 pour des t\u00e2ches de base et les comparaisons avec des d\u00e9fis simples type Tour de Hano\u00ef). 2025. ([ejmanager.com](https:\/\/www.ejmanager.com\/mnstemps\/259\/addl\/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))<br \/>\n&#8211; MIT News: Large Language Models don\u2019t behave like people, 2024. Article discutant des limites des LLMs et de l\u2019\u00e9cart entre ce que les humains font et les promesses d\u2019AGI. Date: 23 juillet 2024. ([news.mit.edu](https:\/\/news.mit.edu\/2024\/large-language-models-dont-behave-like-people-0723?utm_source=openai))<br \/>\n&#8211; Do Large Language Models Know What They Don\u2019t Know? Nature Machine Intelligence, 2024. Discussion sur les capacit\u00e9s et les limites qui freinent l\u2019\u00e9mergence d\u2019un raisonnement \u00ab AGI-like \u00bb. Date: 2024. ([nature.com](https:\/\/www.nature.com\/articles\/s42256-024-00976-7?utm_source=openai))<br \/>\n&#8211; LLMs and the Logical Space of Reasons. Minds and Machines, 2025. R\u00e9f\u00e9rence \u00e0 la difficult\u00e9 \u00e0 g\u00e9n\u00e9raliser vers des t\u00e2ches simples r\u00e9solues par des m\u00e9thodes algorithmiques (ce qui \u00e9claire la distance vers l\u2019AGI). Date: 2025. ([link.springer.com](https:\/\/link.springer.com\/article\/10.1007\/s11023-025-09751-y?utm_source=openai))<br \/>\n&#8211; Article de synth\u00e8se (revue) sur les perspectives AGI et capacit\u00e9s actuelles des mod\u00e8les comme Claude\/o3, discutant de d\u00e9fis classiques comme la Tour de Hano\u00ef. 2024\u20132025, n\u00e9cessite de v\u00e9rifier les sources sp\u00e9cifiques des mises \u00e0 jour sur Claude\/o3. Dates: 2024\u20132025. ([ejmanager.com](https:\/\/www.ejmanager.com\/mnstemps\/259\/addl\/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))<\/p>\n<p>5) Les LLMs ne sont pas un substitut efficace aux algorithmes classiques pour r\u00e9soudre des probl\u00e8mes complexes, et leur utilisation ne doit pas \u00eatre sur\u00e9valu\u00e9e dans le cadre des avanc\u00e9es vers l\u2019AGI<\/p>\n<p>&#8211; IAJIT-2025-08-939: R\u00e9sultats exp\u00e9rimentaux et recommandation pratique sur l\u2019int\u00e9gration LLMs avec des solveurs classiques pour des probl\u00e8mes d\u2019ordonnancement et d\u2019optimisation; avertissements sur leur fiabilit\u00e9 autonome. 2025. ([ejmanager.com](https:\/\/www.ejmanager.com\/mnstemps\/259\/addl\/259-1756264260-ADDL-251213103931.pdf?utm_source=openai))<br \/>\n&#8211; Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning. arXiv, 2025. Mises en garde sur le fait que les LLMs ne remplacent pas les algorithmes symboliques. Date: 2025. ([arxiv.org](https:\/\/arxiv.org\/abs\/2507.10624?utm_source=openai))<br \/>\n&#8211; What large language models know and what people think they know. Nature Machine Intelligence, 2024. Montre que la compr\u00e9hension des limites emp\u00eache de sur\u00e9valuer l\u2019efficacit\u00e9 des LLMs comme substituts \u00e0 des m\u00e9thodes classiques. Date: 2024. ([nature.com](https:\/\/www.nature.com\/articles\/s42256-024-00976-7?utm_source=openai))<br \/>\n&#8211; Six Fallacies in Substituting Large Language Models for Human Participants. Journal (2025). Met en \u00e9vidence les risques d\u2019utiliser des LLMs comme substituts pour des t\u00e2ches qui exigent cognitions et algorithmes robustes. Date: 2025. ([journals.sagepub.com](https:\/\/journals.sagepub.com\/doi\/full\/10.1177\/25152459251357566?utm_source=openai))<br \/>\n&#8211; Confidence in the Reasoning of Large Language Models. MIT Press Journal, 2025. Analyse critique sur la confiance dans le raisonnement des LLMs et implications pour leur emploi dans des t\u00e2ches complexes n\u00e9cessitant des algorithmes. Date: hiver 2025. ([hdsr.mitpress.mit.edu](https:\/\/hdsr.mitpress.mit.edu\/pub\/jaqt0vpb?utm_source=openai))<\/p>\n<p>Notes et conseils pratiques<br \/>\n&#8211; Les sources ci-dessus couvrent des discussions actives en 2024\u20132025 sur les limites du raisonnement des LLMs, la distinctions entre ex\u00e9cution et compr\u00e9hension, et les dangers de consid\u00e9rer les LLMs comme des substituts d\u2019algorithmes classiques pour des probl\u00e8mes complexes. Elles incluent des points de vue de la communaut\u00e9 scientifique (arXiv\/papers, Minds and Machines), des analyses de presse scientifique (MIT News, Ars Technica, Nature Machine Intelligence) et des revues sp\u00e9cialis\u00e9es (Six Fallacies, MIT Press).<br \/>\n&#8211; Si vous le souhaitez, je peux extraire pour chaque point des passages cl\u00e9s et les r\u00e9sumer en fran\u00e7ais, ou bien proposer une synth\u00e8se argument\u00e9e avec dates et liens exacts vers les PDFs ou pages HTML.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>1. Les mod\u00e8les bas\u00e9s sur des LLMs (Large Language Models) n&rsquo;affichent pas de v\u00e9ritable raisonnement, se contentant de reconna\u00eetre des motifs dans des donn\u00e9es d&rsquo;entra\u00eenement sp\u00e9cifiques. 2. M\u00eame en ayant acc\u00e8s \u00e0 des algorithmes sp\u00e9cifiques, ces mod\u00e8les \u00e9chouent \u00e0 ex\u00e9cuter correctement des t\u00e2ches complexes, mettant en \u00e9vidence une distinction entre ex\u00e9cuter et comprendre. 3. Les [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-34","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/posts\/34","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/comments?post=34"}],"version-history":[{"count":0,"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/posts\/34\/revisions"}],"wp:attachment":[{"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/media?parent=34"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/categories?post=34"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/1ntel.fr\/index.php\/wp-json\/wp\/v2\/tags?post=34"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}