آزمون هوش مصنوعی با معمای ۲۰۰۰ ساله افلاطون؛
آیا ChatGPT دانش را «اکتسابی» میکند نه «ذاتی»؟
پروژهای تحقیقاتی با تکیه بر مسئله کلاسیک «دو برابر کردن مربع» که قدمت آن به سخنان افلاطون در حدود ۳۸۵ پیش از میلاد بازمیگردد، سعی در رمزگشایی از ماهیت یادگیری در مدلهای زبانی بزرگ (LLM) مانند ChatGPT دارد. دانشمندان دانشگاه کمبریج و عبری اورشلیم با مشاهده پاسخهای مدل، شواهدی قوی مبنی بر اینکه دانش ریاضی در هوش مصنوعی از طریق تجربه و استدلال اکتسابی است، نه ذاتی، به دست آوردند؛ بهویژه آنجا که مدل در یک استدلال مشابه دچار اشتباه شد.

معمای افلاطون و چالش «یادگیری ذاتی در برابر اکتسابی» | ChatGPT مسئله ۲۰۰۰ ساله افلاطون را حل کرد؛ نتایج غافلگیرکننده دانشمندان از یادگیری اکتسابی هوش مصنوعی
گزارش ویژه "گسترش تولید و تجارت" دانشمندان کمبریج با به چالش کشیدن ChatGPT توسط «مسئله دو برابر کردن مربع» افلاطون، شواهدی از یادگیری اکتسابی (و نه ذاتی) در مدلهای زبانی بزرگ مشاهده کردند.مسئلهی دو برابر کردن مربع (Squaring the Duple) قرنهاست که بهعنوان ابزاری برای بحث فلسفی پیرامون ماهیت دانش مورد استفاده قرار میگیرد: آیا دانش لازم برای حل آن از پیش در ذهن ما نهفته است (ذاتی) یا تنها از طریق تجربه و تعامل با جهان آموخته میشود (اکتسابی)؟ محققان این مسئله را برای ChatGPT طراحی کردند زیرا مدلهای زبانی بزرگ عمدتاً بر دادههای متنی آموزش میبینند و احتمال کمتری وجود دارد که راهحل دقیق این معمای هندسی قدیمی در دادههای آموزشی آنها وجود داشته باشد. اگر مدل بتواند بدون ارجاع به دادههای قبلی، به راهحل صحیح دست یابد، این امر میتواند نشانهای بر توانایی استدلال اکتسابی باشد.
اشتباه هوش مصنوعی؛ تقلید از یک یادگیرنده انسانی
تیم تحقیقاتی به رهبری ناداو مارکو (دانشگاه کمبریج و اورشلیم) و آندریاس استیلیانیدس، زمانی به نتایج شگفتانگیز دست یافتند که فراتر از مسئله اصلی حرکت کردند. آنها از چتبات خواستند تا با استدلال مشابه، مساحت یک مستطیل را دو برابر کند. پاسخ ChatGPT این بود که چون نمیتوان از قطر یک مستطیل برای دو برابر کردن اندازه آن استفاده کرد، هیچ راهحل هندسی وجود ندارد. اما دانشمندان میدانستند که چنین راهحلی برای مستطیلها نیز قابل تعریف است.
ناداو مارکو توضیح میدهد که احتمال وجود ادعای نادرست در دادههای آموزشی ChatGPT «بسیار کم» است. این خطا نشان میدهد که مدل، همانند شاگرد سقراط در متن افلاطون، سعی کرده است راهحلها را بر اساس تجربههای قبلی خود (مانند دو برابر کردن مربع با استفاده از قطر) بداههسازی کند و در یک مورد جدیدتر، مرتکب خطای استدلالی شده است. این رفتار، نشانهای واضح از یادگیری تولید شده (Generative Learning) است.
آیا ماشینها تفکر میکنند؟ شباهت به منطقه توسعه تقریبی (ZPD)
این مطالعه نوری تازه بر مباحث مربوط به نسخهی هوش مصنوعی از «استدلال» و «تفکر» میتاباند. مارکو و استیلیانیدس پیشنهاد میکنند که ChatGPT ممکن است از مفهومی به نام منطقه توسعه تقریبی (ZPD) استفاده کند.
ZPD در روانشناسی آموزشی، شکاف بین آنچه فرد هماکنون میداند و آنچه با راهنمایی آموزشی مناسب میتواند بیاموزد را توصیف میکند
محققان معتقدند ChatGPT میتواند به طور خودجوش از یک چارچوب مشابه برای حل مسائلی استفاده کند که دقیقاً در دادههای آموزشیاش حضور نداشتهاند، صرفاً به لطف دستورالعملهای مناسب و توانایی پیوند دادن مفاهیم به شیوهای استدلالی. این امر نشان میدهد که LLMها صرفاً گردآورنده داده نیستند، بلکه در حال ایجاد ساختارهای استدلالی برای مواجهه با نوآوریهای مسئلهمحور هستند.
این مطالعه در مجله International Journal of Mathematical Education in Science and Technology منتشر شده است.