نقد مقاله‌ جدید اپل با عنوان «توهم تفکر» (The Illusion of Thinking)
این مقاله میگه حتی پیشرفته‌ترین مدل‌های AI مثل Claude و DeepSeek-R1، واقعا «فکر» نمیکنن و فقط استدلال رو شبیه‌سازی می‌کنن. به عبارتی میگه مدل‌های AI حتی نزدیک به تفکر انسانی هم نیستن و توی تست‌های درست دقتشون به صفر میرسه.
عنوان و لحن مقاله، شکست مدل‌ها را به عنوان «توهمی از تفکر» تفسیر میکنه که این یک نتیجه‌گیری غلیظ و کمی ناعادلانه هست. حتی یک انسان هم ممکنه در حل برج هانوی با ۱۵ دیسک شکست بخوره (تستی که معیار مقاله هست)، اما به معنی این نیست که انسان فکر نمیکنه. شکست تو یک وظیفه بسیار پیچیده، نشانه محدودیت‌های یک سیستم هست، نه لزوما داشتن توهم کل فرایند. شاید بهتر بود از عباراتی مثل «استدلال شکننده» (Brittle Reasoning) یا «استدلال غیرقابل تعمیم» (Non-generalizable Reasoning) استفاده می‌شد.
توی مقاله میان حتی الگوریتم حل برج هانوی، رو به مدل‌ها میدن ولی باز هم شکست میخورن. آشنایان به معماری ترنسفورمرها این رو از قبل میدونستن و غافلگیر کننده نیست، در کل LLMها الگوهای آماری رو در دنباله‌ها یاد میگرن. دنبال کردن دقیق و بی‌نقص یک الگوریتم برای صدها مرحله، دقیقا همون کاری هست که کامپیوترهای کلاسیک براش ساخته شد و مدل‌های زبانی توش ضعف دارن. این یافته بیشتر تاییدی بر محدودیت‌های ترنسفورمها هست که از قبل میدونیم و کشف جدیدی نیست.
مقاله به وضوح برای ایجاد سر و صدا و جلب توجه حداکثری در جامعه هوش مصنوعی طراحی شده و این رو میشه از عنوان خاصش یعنی عبارت The Illusion of Thinking (توهم تفکر) و استفاده از کلمات دراماتیک مثل Complete Collapse (سقوط کامل)، Fundamental Limitations (محدودیت‌های بنیادین) و Illusion (توهم) به طور مکرر برای تشدید تأثیر یافته‌ها پیدا کرد. در واقع مقاله تصمیم داره خودش رو یه تحقیق انقلابی نشون بده در صورتی که پیش از این هر محقق AI این موارد رو میدونه با این حال اسم اپل و نزدیک بودن انتشار مقاله به رویداد مهم اپل هم در دیده شدنش بی‌تاثیر نیستن. [L]
🤓 @geekalerts

باشگاه فناوران اطلاعات مکانی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا