
به گزارش سراج24؛ در روزگاری که روانشناسی با بحرانهای مفهومی و تکرارپذیری دستوپنجه نرم میکند و هوش مصنوعی با وعدههایی اغراقآمیز در صدر اخبار نشسته، ائتلاف این دو حوزه بیش از آنکه امیدبخش باشد، خطرناک است.
اگر تصور میکنید هوش مصنوعی میتواند جایگزین ذهن انسان در پژوهشهای روانشناسی شود یا حتی نظریهای درباره آن ارائه دهد، احتمالاً در دام یکی از فریبندهترین خطاهای علمی دوران معاصر افتادهاید. اگر این مطلب را نخوانید، شاید بهزودی شاهد مرگ نظریهپردازی علمی و حاکمیت شبهعلم باشید!
روانشناسی زخمی در آغوش هوش مصنوعی توهمزا
روانشناسی علمی در دهه اخیر در حال بازسازی جدی خود بوده؛ بحرانی که با عنوان «بحران تکرارپذیری» شناخته میشود، آشکار کرد که بخش بزرگی از یافتههای روانشناختی، در بازآزماییهای علمی قابل تکرار نیستند. این افشاگری، زنگ خطر را برای مشروعیت علمی روانشناسی به صدا درآورد.
در حقیقت خیال ساختن ذهن مصنوعی سالهاست ذهن پژوهشگران را درگیر کرده. حالا با پیشرفت مدلهای زبانی و شبکههای عصبی، عدهای فکر میکنند این رویا به حقیقت تبدیل شده. اما واقعیت این است که چیزی که ماشین انجام میدهد، چیزی نیست جز تقلید سطحی از رفتار انسان. ماشین نمیفهمد، فقط تکرار میکند. احساس ندارد، فقط محاسبه میکند. ذهن انسان پدیدهای است پیچیده، منعطف و پُراز ابهام، چیزی که نمیتوان آن را با چند میلیون خط کد و داده بازسازی کرد.
برخی پژوهشگران تأکید میکنند که چنین بحرانهایی میتوانند مفید باشند، اگر منجر به بازاندیشی در نظریهها و روششناسیها شوند. اما مشکل از جایی شروع میشود که این بحرانها، ذهنهای ناامید را آماده پذیرش «راهحلهای فوری و بهظاهر خوش» میکنند. این همان لحظهای است که هوش مصنوعی، با شعارهایی شبیه به «ما میتوانیم ذهن انسان را بازسازی کنیم!» وارد صحنه میشود.
مثلاً بسیاری از پژوهشگران روانشناسی، بهجای اصلاح مبانی نظری خود، به مدلهای یادگیری ماشین روی آوردهاند تا رفتار انسانی را با آن پیشبینی کنند. اینجا دقیقاً همانجاییست که آسیبپذیری روانشناسی، به دروازهای برای نفوذ ادعاهای شبهعلمی تبدیل میشود.
پژوهشی تحت عنوان «Combining Psychology with Artificial Intelligence» تاکید دارد: «در حالیکه روانشناسی آسیبپذیر شده، جامعه در حال تجربه یک چرخه هیجانزدهی هوش مصنوعی است؛ چرخهای که از نمونههای پیشین نیز زیانبارتر است.»
این هوش مصنوعیِ «هایپشده»، تنها مسألهاش ادعاهای علمی نیست. بلکه: ردپایی سنگین در تخریب محیطزیست دارد؛ بر پایه کار پنهان نیروی کار ارزان و استثمارشده بنا شده است؛ و در بسیاری موارد، تبعیضها را نهتنها بازتولید، بلکه تقویت میکند.
در عین حال، روانشناسانی که از فقر نظری و آماری رنج میبرند، بهراحتی جذب این وعدهها میشوند، بیآنکه متوجه مخاطرات آن باشند. چنین شرایطی دقیقاً همان «طوفان کامل» است: روانشناسی با بحرانهای علمی، هوش مصنوعی با وسوسهی راهحل فوری، و در نهایت، علم در آستانه سقوط در پرتگاه شبهعلم.
دام اول: آیا AI یک «ذهن» است؟
بیایید یک مثال ملموس بزنیم. فرض کنید شما با یک ربات چت میکنید. او شوخی میکند، جواب سؤالاتتان را میدهد، حتی شاید احساس همدردی نشان دهد. آیا این به این معناست که این ربات «ذهن» دارد؟ این همان دام خطرناک است.
برخی پژوهشگران با صراحت میگویند: «AI سیستمها ممکن است انسانمانند بهنظر برسند، اما اینها دکورهایی هستند که ما را فریب میدهند.»
این اشتباه، «خطای ردهای» (category error) نام دارد. یعنی نسبت دادن ویژگیهای یک مقوله (مثل ذهن انسانی) به چیزهایی که اصولاً از آن مقوله نیستند (مثل الگوریتمها).
و مشکل زمانی حاد میشود که برخی پژوهشگران بهطور جدی پیشنهاد میدهند AI میتواند جایگزین انسان در آزمایشهای روانشناسی شود (Dillon et al., 2023). این پیشنهاد فقط غیرعلمی نیست، بلکه بهقول روجی و گست (Rooij, Guest, 2024): «غیراخلاقی و غیرانسانی است.»
اگر این روند ادامه یابد، نتیجه آن حذف تدریجی انسانها از تحقیقات مربوط به خودشان؛ انجام مطالعاتی که هیچ درکی از پیچیدگی تجربه انسانی ندارند؛ و تولید دادههایی جعلی با ظاهری علمی، خواهد بود.
دام دوم: آیا AI یک «نظریه» است؟
شاید برخی بگویند: «ما نمیگوییم AI ذهن دارد؛ فقط میگوییم مدلهای آن میتوانند نظریههایی برای شناخت انسان باشند.». این هم اشتباه دوم است. پژوهشگران چندین خطای رایج در این استدلال را افشا میکند:
1. پیشبینی، تبیین نیست
اگر یک مدل یادگیری ماشین بتواند پیشبینی کند که فرد در یک آزمون روانشناسی چه رفتاری خواهد داشت، آیا این بهمعنای «توضیح» آن رفتار است؟ در جواب باید گفت: نه!
بیایید ساده بگوییم. فرض کنید شما بتوانید با یک جدول، زمان جزر و مد در دریا را دقیق پیشبینی کنید. آیا این یعنی راز جزر و مد را فهمیدهاید؟ نه. شما فقط میدانید چه زمانی اتفاق میافتد، نه اینکه چرا.
مدلهای هوش مصنوعی مبتنی دقیقاً چنیناند. آنها میتوانند رفتار انسان را در برخی شرایط خاص پیشبینی کنند. اما وقتی پای چرایی و چگونگی رفتار به میان میآید، هیچ توضیحی ندارند. آنها بهجای تفسیر، فقط تقلید میکنند. و علم، فقط پیشبینی نیست؛ علم یعنی فهمیدن.
2. شباهت عملکردی، شباهت شناختی نیست
با استناد به اصل «چندقابلیتی» (multiple realizability) باید هشدار داد شباهت رفتاری AI با انسان، لزوماً بهمعنای شباهت شناختی نیست. این فقط یک توهم منطقی است.
در واقع ممکن است یک ماشین رفتار انسانی را تقلید کند. مثلاً اگر به او یک مسأله بدهیم، پاسخ درستی بدهد. اما این به این معنا نیست که او مثل ما فکر کرده. درست مثل اینکه ساعت دیجیتال و ساعت آنالوگ هر دو زمان را نشان میدهند، ولی یکی با چرخدنده کار میکند و دیگری با الگوریتم. ظاهر یکسان، دلیل بر شباهت باطن نیست. هوش مصنوعی هم، حتی اگر پاسخ انسانی بدهد، لزوماً درک انسانی ندارد.
3. وظیفه ≠ ظرفیت
در روانشناسی، برای سنجش چیزهایی مثل حافظه یا تصمیمگیری، آزمونهایی طراحی میکنیم. اما مهم است بدانیم که این آزمونها فقط نمایندهی بخشی از ظرفیت ذهنی انساناند. اگر مدلی را طوری تنظیم کنیم که در یک آزمون خوب عمل کند، این بهمعنای فهم عملکرد ذهنی نیست. مثل این است که کسی خوب تمرین یک قطعه پیانو را حفظ کرده باشد، ولی نتواند بداههنوازی کند. فهم واقعی، بسیار فراتر از اجرای وظایف از پیشتعریفشده است. به بیان تخصصیتر در واقع مدلهای وظایف روانشناسی، نمیتوانند بهتنهایی نظریههای شناختی باشند.
دام سوم: اتوماسیون علم شناختی، رؤیایی غیرممکن
فرض کنیم کسی بگوید: «ما میتوانیم کل فرآیند علم را خودکار کنیم؛ نظریهسازی، تحلیل داده، و حتی استنتاج را بسپاریم به ماشینها.» آیا این ممکن است؟
واقعاً میتوان به این سوال جواب مثبت داد؟ بنظر هرگز!
در حقیقت یکی از بزرگترین اشتباهها این است که فکر کنیم میتوان علم را خودکار کرد. یعنی یک ماشین بنویسد، تحلیل کند، استنتاج کند و نظریه بسازد. اما حقیقت این است که تولید نظریه در علم، مخصوصاً در روانشناسی، نهتنها سخت، بلکه اساساً غیرقابل خودکارسازی است.
نظریهسازی فرآیندی انسانی است. نیاز به تخیل، شهود، انتقاد، بازنگری و گفتوگو دارد. وقتی این فرایند را به الگوریتم بسپاریم، نتیجهاش شاید ظاهراً دقیق باشد، اما خالی از معنا و عمق خواهد بود. مثل یک تابلوی نقاشی زیبا که هیچ روحی در آن نیست.
ساخت نظریه به شکل کاملاً و اساساً محاسباتی، بهویژه در حوزه شناخت انسان، حلناپذیر است؛ چون هیچ الگوریتمی وجود ندارد که بتواند از مجموعهای از دادهها، بهطور کامل یک نظریه شناختی تولید کند. علم، چیزی بیش از تحلیل آماری دادههاست؛ علم یعنی تبیین، درک، فرضیهسازی، بازبینی و نقادی.
هوش مصنوعی نمیتواند محدودیتهای مفهومی و شناختی خود را بشناسد. در این شرایط، اگر علم را اتوماسیون کنیم: علم به مجموعهای از رویههای بیروح و بیفهم تبدیل میشود؛ توانایی تفکر انتقادی در دانشمندان تحلیل میرود؛ و راه برای رشد شبهعلمهای ظاهراً علمی باز میشود (Rooij, Guest, 2024).
مسیر پیشنهادی: «هوش مصنوعی غیرسازنده»؛ راهی محتاطانه
پژوهشگران یک پیشنهاد علمی و قابلدفاع دارند: نگاه به هوش مصنوعی بهمثابه یک ابزار، نه یک موجود دارای ذهن یا نظریه. در این نگاه که «non-makeist AI» نام دارد، هوش مصنوعی ابزاری است برای کمک به نظریهسازی، نه جایگزینی آن. یعنی باید از هوش مصنوعی استفاده کنیم، اما با احتیاط. آن را نه جایگزین ذهن انسان، بلکه بهعنوان ابزاری کمکی برای تحلیل و ساخت نظریه بهکار بگیریم. نباید از آن یک خدا بسازیم، بلکه باید آن را یک کارمند دقیق و محدود بدانیم. باید همیشه یادمان باشد که علم، محصول ذهن انسان است، نه ماشین.
ما از AI برای مدلسازی، شبیهسازی و بررسی محدودیتهای نظریهها استفاده میکنیم، اما هیچگاه آن را ذهن، نظریه یا حتی «فهم» تلقی نمیکنیم. در واقع در بیان علمی و تخصصی «علوم شناختی، خود یک فعالیت شناختی است. پس محدودیتهای شناختی ما، بهطور طبیعی در نظریهپردازی هم وجود دارند.» (Rich et al., 2021،). این پیشنهاد، نهتنها واقعبینانه است، بلکه ما را از خطرات بزرگ دور میکند.
جمعبندی
روانشناسی و هوش مصنوعی دو حوزه مهم هستند، اما تلفیق آنها بدون مبنای نظری، بیشتر به انحراف علمی میانجامد تا پیشرفت. هوش مصنوعی، ذهن نیست؛ نظریه نیست؛ علم نیست. این ابزارها اگر بدون درک عمیق فلسفی و معرفتشناسی استفاده شوند، میتوانند منجر به توهم علم و گسترش شبهعلم شوند.
در واقع وقتی ماشینها را بهجای انسانها بنشانیم، نهتنها از مسیر فهم دور میشویم، بلکه به دام خطاها و فریبهایی میافتیم که ظاهر علمی دارند، اما حقیقتی پشت آنها نیست. شناخت، چیزی فراتر از محاسبه است. و ذهن، چیزی فراتر از الگوریتم.
از این رو، بازگشت به بنیانهای نظری قوی، پذیرش محدودیتهای محاسباتی، و استفاده آگاهانه از ابزارهای AI بهعنوان «دستیار نظری»، نه جایگزین انسان، تنها راه برونرفت از این بحران است.
بنابراین هوش مصنوعی میتواند ابزار قدرتمندی برای روانشناسی باشد، اما تنها اگر جای خود را بداند! در این دنیای پر زرقوبرق دیجیتال، شاید بازگشت به تفکر آرام، نظریهمحور و انسانی، تنها راه نجات علم باشد.
منابع (بسیار بسیار توصیه میشود که بخوانید)
Birhane, A., & Guest, O. (2021). Towards decolonising computational sciences. Kvinder, Køn & Forskning, 29(2), 60–73.
Blokpoel, M., & van Rooij, I. (2021–2025). Theoretical modeling for cognitive science and psychology.
Bender, E. M. (2024). Resisting dehumanization in the age of “AI”. Current Directions in Psychological Science, 33(2), 114–120
van Rooij, I., & Baggio, G. (2020). Theory development requires an epistemological sea change. Psychological Inquiry, 31(4), 321–325.
van Rooij, Olivia Guest (2024). Combining Psychology with Artificial Intelligence: What could possibly go wrong?.
Guest, O., Scharfenberg, N., & van Rooij, I. (2025). Modern alchemy: Neurocognitive reverse engineering. PhilSci Archive.