۱۴۰۴/۰۳/۰۵ - ۱۱:۰۰

پشت‌پرده استفاده روان‌شناسان از هوش مصنوعی!

موج ترکیب روان‌شناسی با هوش مصنوعی، آینده‌ای اغواگر را نوید می‌دهد، اما پشت پرده آن، فاجعه‌ای علمی و اخلاقی در کمین است. این گزارش را از دست ندهید!

پشت‌پرده استفاده روان‌شناسان از هوش مصنوعی!

به گزارش سراج24؛ در روزگاری که روان‌شناسی با بحران‌های مفهومی و تکرارپذیری دست‌وپنجه نرم می‌کند و هوش مصنوعی با وعده‌هایی اغراق‌آمیز در صدر اخبار نشسته، ائتلاف این دو حوزه بیش از آن‌که امیدبخش باشد، خطرناک است.
اگر تصور می‌کنید هوش مصنوعی می‌تواند جایگزین ذهن انسان در پژوهش‌های روان‌شناسی شود یا حتی نظریه‌ای درباره آن ارائه دهد، احتمالاً در دام یکی از فریبنده‌ترین خطاهای علمی دوران معاصر افتاده‌اید. اگر این مطلب را نخوانید، شاید به‌زودی شاهد مرگ نظریه‌پردازی علمی و حاکمیت شبه‌علم باشید!

روان‌شناسی زخمی در آغوش هوش مصنوعی توهم‌زا
روان‌شناسی علمی در دهه اخیر در حال بازسازی جدی خود بوده؛ بحرانی که با عنوان «بحران تکرارپذیری» شناخته می‌شود، آشکار کرد که بخش بزرگی از یافته‌های روان‌شناختی، در بازآزمایی‌های علمی قابل تکرار نیستند. این افشاگری، زنگ خطر را برای مشروعیت علمی روان‌شناسی به صدا درآورد.
در حقیقت خیال ساختن ذهن مصنوعی سال‌هاست ذهن پژوهشگران را درگیر کرده. حالا با پیشرفت مدل‌های زبانی و شبکه‌های عصبی، عده‌ای فکر می‌کنند این رویا به حقیقت تبدیل شده. اما واقعیت این است که چیزی که ماشین انجام می‌دهد، چیزی نیست جز تقلید سطحی از رفتار انسان. ماشین نمی‌فهمد، فقط تکرار می‌کند. احساس ندارد، فقط محاسبه می‌کند. ذهن انسان پدیده‌ای است پیچیده، منعطف و پُراز ابهام، چیزی که نمی‌توان آن را با چند میلیون خط کد و داده بازسازی کرد.
برخی پژوهشگران تأکید می‌کنند که چنین بحران‌هایی می‌توانند مفید باشند، اگر منجر به بازاندیشی در نظریه‌ها و روش‌شناسی‌ها شوند. اما مشکل از جایی شروع می‌شود که این بحران‌ها، ذهن‌های ناامید را آماده پذیرش «راه‌حل‌های فوری و به‌ظاهر خوش» می‌کنند. این همان لحظه‌ای است که هوش مصنوعی، با شعارهایی شبیه به «ما می‌توانیم ذهن انسان را بازسازی کنیم!» وارد صحنه می‌شود.
مثلاً بسیاری از پژوهشگران روان‌شناسی، به‌جای اصلاح مبانی نظری خود، به مدل‌های یادگیری ماشین روی آورده‌اند تا رفتار انسانی را با آن پیش‌بینی کنند. این‌جا دقیقاً همان‌جایی‌ست که آسیب‌پذیری روان‌شناسی، به دروازه‌ای برای نفوذ ادعاهای شبه‌علمی تبدیل می‌شود.
پژوهشی تحت عنوان «Combining Psychology with Artificial Intelligence» تاکید دارد: «در حالی‌که روان‌شناسی آسیب‌پذیر شده، جامعه در حال تجربه یک چرخه هیجان‌زده‌ی هوش مصنوعی است؛ چرخه‌ای که از نمونه‌های پیشین نیز زیان‌بارتر است.»
این هوش مصنوعیِ «هایپ‌شده»، تنها مسأله‌اش ادعاهای علمی نیست. بلکه: ردپایی سنگین در تخریب محیط‌زیست دارد؛ بر پایه کار پنهان نیروی کار ارزان و استثمارشده بنا شده است؛ و در بسیاری موارد، تبعیض‌ها را نه‌تنها بازتولید، بلکه تقویت می‌کند.
در عین حال، روان‌شناسانی که از فقر نظری و آماری رنج می‌برند، به‌راحتی جذب این وعده‌ها می‌شوند، بی‌آن‌که متوجه مخاطرات آن باشند. چنین شرایطی دقیقاً همان «طوفان کامل» است: روان‌شناسی با بحران‌های علمی، هوش مصنوعی با وسوسه‌ی راه‌حل فوری، و در نهایت، علم در آستانه سقوط در پرتگاه شبه‌علم.
دام اول: آیا AI یک «ذهن» است؟
بیایید یک مثال ملموس بزنیم. فرض کنید شما با یک ربات چت می‌کنید. او شوخی می‌کند، جواب سؤالاتتان را می‌دهد، حتی شاید احساس همدردی نشان دهد. آیا این به این معناست که این ربات «ذهن» دارد؟ این همان دام خطرناک است.
برخی پژوهشگران با صراحت می‌گویند: «AI سیستم‌ها ممکن است انسان‌مانند به‌نظر برسند، اما این‌ها دکورهایی هستند که ما را فریب می‌دهند.»
این اشتباه، «خطای رده‌ای» (category error) نام دارد. یعنی نسبت دادن ویژگی‌های یک مقوله (مثل ذهن انسانی) به چیزهایی که اصولاً از آن مقوله نیستند (مثل الگوریتم‌ها).
و مشکل زمانی حاد می‌شود که برخی پژوهشگران به‌طور جدی پیشنهاد می‌دهند AI می‌تواند جایگزین انسان در آزمایش‌های روان‌شناسی شود (Dillon et al., 2023). این پیشنهاد فقط غیرعلمی نیست، بلکه به‌قول روجی و گست (Rooij, Guest, 2024): «غیراخلاقی و غیرانسانی است.»
اگر این روند ادامه یابد، نتیجه آن حذف تدریجی انسان‌ها از تحقیقات مربوط به خودشان؛ انجام مطالعاتی که هیچ درکی از پیچیدگی تجربه انسانی ندارند؛ و تولید داده‌هایی جعلی با ظاهری علمی، خواهد بود.
دام دوم: آیا AI یک «نظریه» است؟
شاید برخی بگویند: «ما نمی‌گوییم AI ذهن دارد؛ فقط می‌گوییم مدل‌های آن می‌توانند نظریه‌هایی برای شناخت انسان باشند.». این هم اشتباه دوم است. پژوهشگران چندین خطای رایج در این استدلال را افشا می‌کند:
1. پیش‌بینی، تبیین نیست
اگر یک مدل یادگیری ماشین بتواند پیش‌بینی کند که فرد در یک آزمون روان‌شناسی چه رفتاری خواهد داشت، آیا این به‌معنای «توضیح» آن رفتار است؟ در جواب باید گفت: نه!
بیایید ساده بگوییم. فرض کنید شما بتوانید با یک جدول، زمان جزر و مد در دریا را دقیق پیش‌بینی کنید. آیا این یعنی راز جزر و مد را فهمیده‌اید؟ نه. شما فقط می‌دانید چه زمانی اتفاق می‌افتد، نه اینکه چرا.
مدل‌های هوش مصنوعی مبتنی دقیقاً چنین‌اند. آن‌ها می‌توانند رفتار انسان را در برخی شرایط خاص پیش‌بینی کنند. اما وقتی پای چرایی و چگونگی رفتار به میان می‌آید، هیچ توضیحی ندارند. آن‌ها به‌جای تفسیر، فقط تقلید می‌کنند. و علم، فقط پیش‌بینی نیست؛ علم یعنی فهمیدن.

2. شباهت عملکردی، شباهت شناختی نیست
با استناد به اصل «چندقابلیتی» (multiple realizability) باید هشدار داد شباهت رفتاری AI با انسان، لزوماً به‌معنای شباهت شناختی نیست. این فقط یک توهم منطقی است.
در واقع ممکن است یک ماشین رفتار انسانی را تقلید کند. مثلاً اگر به او یک مسأله بدهیم، پاسخ درستی بدهد. اما این به این معنا نیست که او مثل ما فکر کرده. درست مثل اینکه ساعت دیجیتال و ساعت آنالوگ هر دو زمان را نشان می‌دهند، ولی یکی با چرخ‌دنده کار می‌کند و دیگری با الگوریتم. ظاهر یکسان، دلیل بر شباهت باطن نیست. هوش مصنوعی هم، حتی اگر پاسخ‌ انسانی بدهد، لزوماً درک انسانی ندارد.
3. وظیفه ≠ ظرفیت
در روان‌شناسی، برای سنجش چیزهایی مثل حافظه یا تصمیم‌گیری، آزمون‌هایی طراحی می‌کنیم. اما مهم است بدانیم که این آزمون‌ها فقط نماینده‌ی بخشی از ظرفیت ذهنی انسان‌اند. اگر مدلی را طوری تنظیم کنیم که در یک آزمون خوب عمل کند، این به‌معنای فهم عملکرد ذهنی نیست. مثل این است که کسی خوب تمرین یک قطعه پیانو را حفظ کرده باشد، ولی نتواند بداهه‌نوازی کند. فهم واقعی، بسیار فراتر از اجرای وظایف از پیش‌تعریف‌شده است. به بیان تخصصی‌تر در واقع مدل‌های وظایف روان‌شناسی، نمی‌توانند به‌تنهایی نظریه‌های شناختی باشند.
دام سوم: اتوماسیون علم شناختی، رؤیایی غیرممکن
فرض کنیم کسی بگوید: «ما می‌توانیم کل فرآیند علم را خودکار کنیم؛ نظریه‌سازی، تحلیل داده، و حتی استنتاج را بسپاریم به ماشین‌ها.» آیا این ممکن است؟
واقعاً می‌توان به این سوال جواب مثبت داد؟ بنظر هرگز!
در حقیقت یکی از بزرگ‌ترین اشتباه‌ها این است که فکر کنیم می‌توان علم را خودکار کرد. یعنی یک ماشین بنویسد، تحلیل کند، استنتاج کند و نظریه بسازد. اما حقیقت این است که تولید نظریه در علم، مخصوصاً در روان‌شناسی، نه‌تنها سخت، بلکه اساساً غیرقابل خودکارسازی است.
نظریه‌سازی فرآیندی انسانی است. نیاز به تخیل، شهود، انتقاد، بازنگری و گفت‌وگو دارد. وقتی این فرایند را به الگوریتم بسپاریم، نتیجه‌اش شاید ظاهراً دقیق باشد، اما خالی از معنا و عمق خواهد بود. مثل یک تابلوی نقاشی زیبا که هیچ روحی در آن نیست.
ساخت نظریه به شکل کاملاً و اساساً محاسباتی، به‌ویژه در حوزه شناخت انسان، حل‌ناپذیر است؛ چون هیچ الگوریتمی وجود ندارد که بتواند از مجموعه‌ای از داده‌ها، به‌طور کامل یک نظریه شناختی تولید کند. علم، چیزی بیش از تحلیل آماری داده‌هاست؛ علم یعنی تبیین، درک، فرضیه‌سازی، بازبینی و نقادی.
هوش مصنوعی نمی‌تواند محدودیت‌های مفهومی و شناختی خود را بشناسد. در این شرایط، اگر علم را اتوماسیون کنیم: علم به مجموعه‌ای از رویه‌های بی‌روح و بی‌فهم تبدیل می‌شود؛  توانایی تفکر انتقادی در دانشمندان تحلیل می‌رود؛ و راه برای رشد شبه‌علم‌های ظاهراً علمی باز می‌شود (Rooij, Guest, 2024).
مسیر پیشنهادی: «هوش مصنوعی غیرسازنده»؛ راهی محتاطانه
پژوهشگران یک پیشنهاد علمی و قابل‌دفاع دارند: نگاه به هوش مصنوعی به‌مثابه یک ابزار، نه یک موجود دارای ذهن یا نظریه. در این نگاه که «non-makeist AI» نام دارد، هوش مصنوعی ابزاری است برای کمک به نظریه‌سازی، نه جایگزینی آن. یعنی باید از هوش مصنوعی استفاده کنیم، اما با احتیاط. آن را نه جایگزین ذهن انسان، بلکه به‌عنوان ابزاری کمکی برای تحلیل و ساخت نظریه به‌کار بگیریم. نباید از آن یک خدا بسازیم، بلکه باید آن را یک کارمند دقیق و محدود بدانیم. باید همیشه یادمان باشد که علم، محصول ذهن انسان است، نه ماشین.
ما از AI برای مدل‌سازی، شبیه‌سازی و بررسی محدودیت‌های نظریه‌ها استفاده می‌کنیم، اما هیچ‌گاه آن را ذهن، نظریه یا حتی «فهم» تلقی نمی‌کنیم. در واقع در بیان علمی و تخصصی «علوم شناختی، خود یک فعالیت شناختی است. پس محدودیت‌های شناختی ما، به‌طور طبیعی در نظریه‌پردازی هم وجود دارند.» (Rich et al., 2021،). این پیشنهاد، نه‌تنها واقع‌بینانه است، بلکه ما را از خطرات بزرگ دور می‌کند.
جمع‌بندی
روان‌شناسی و هوش مصنوعی دو حوزه مهم هستند، اما تلفیق آن‌ها بدون مبنای نظری، بیشتر به انحراف علمی می‌انجامد تا پیشرفت. هوش مصنوعی، ذهن نیست؛ نظریه نیست؛ علم نیست. این ابزارها اگر بدون درک عمیق فلسفی و معرفت‌شناسی استفاده شوند، می‌توانند منجر به توهم علم و گسترش شبه‌علم شوند.
در واقع وقتی ماشین‌ها را به‌جای انسان‌ها بنشانیم، نه‌تنها از مسیر فهم دور می‌شویم، بلکه به دام خطاها و فریب‌هایی می‌افتیم که ظاهر علمی دارند، اما حقیقتی پشت آن‌ها نیست. شناخت، چیزی فراتر از محاسبه است. و ذهن، چیزی فراتر از الگوریتم.
از این رو، بازگشت به بنیان‌های نظری قوی، پذیرش محدودیت‌های محاسباتی، و استفاده آگاهانه از ابزارهای AI به‌عنوان «دستیار نظری»، نه جایگزین انسان، تنها راه برون‌رفت از این بحران است.
بنابراین هوش مصنوعی می‌تواند ابزار قدرتمندی برای روان‌شناسی باشد، اما تنها اگر جای خود را بداند! در این دنیای پر زرق‌وبرق دیجیتال، شاید بازگشت به تفکر آرام، نظریه‌محور و انسانی، تنها راه نجات علم باشد.
منابع (بسیار بسیار توصیه می‌شود که بخوانید)


Birhane, A., & Guest, O. (2021). Towards decolonising computational sciences. Kvinder, Køn & Forskning, 29(2), 60–73.
Blokpoel, M., & van Rooij, I. (2021–2025). Theoretical modeling for cognitive science and psychology.
Bender, E. M. (2024). Resisting dehumanization in the age of “AI”. Current Directions in Psychological Science, 33(2), 114–120
van Rooij, I., & Baggio, G. (2020). Theory development requires an epistemological sea change. Psychological Inquiry, 31(4), 321–325.
van Rooij, Olivia Guest (2024). Combining Psychology with Artificial Intelligence: What could possibly go wrong?.
Guest, O., Scharfenberg, N., & van Rooij, I. (2025). Modern alchemy: Neurocognitive reverse engineering. PhilSci Archive.

اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۸۲
آخرین مطالب
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••