
به گزارش سراج24؛ در سال 2023، محققان گوگل دیپمایند مدل هوش مصنوعی Gemini را معرفی کردند که تواناییهای استدلالی آن به حدی پیچیده بود که برخی آن را «نزدیکترین چیز به تفکر انسانی» دانستند.
در همان سال، سام آلتمن، مدیرعامل OpenAI، درباره امکان رسیدن به «هوش عمومی مصنوعی» (AGI) هشدار داد؛ سیستمی که نهتنها دادهها را پردازش میکند بلکه شاید بتواند بهطور واقعی «درک» کند.
اما این پرسش همچنان مطرح است: آیا افزایش قدرت پردازشی و مدلهای پیچیده یادگیری عمیق، ماشینها را از سطح دانستن به سطح درک کردن و قضاوت اخلاقی میبرد؟ یا شکافی غیرقابل عبور بین شناخت ماشینی و حکمت انسانی وجود دارد؟
از باغ عدن تا الگوریتمهای عصبی!
مسیحیان معتقدند از نخستین لحظهای که آدم (ع) و حوا از «درخت معرفت» خوردند، آگاهی انسان متحول شد! در روایتهای دینی و فلسفی اسلامی نیز، دانش چیزی فراتر از دریافت اطلاعات است؛ تجربهای است که به تشخیص و تمایز اخلاقی میانجامد. در فلسفه ارسطو، «فرونسیس» یا حکمت عملی، تنها از طریق تجربه زندگی و مواجهه با موقعیتهای واقعی شکل میگیرد، نه با حفظ دادهها یا پردازش اطلاعات.
امروزه، شبکههای عصبی مصنوعی و مدلهای زبانی مانند GPT-4، به تحلیل و پردازش دادههایی میپردازند که در طول تاریخ بشر گردآوری شده است. آیا این بدان معناست که آنها میتوانند واقعاً قضاوت اخلاقی کنند؟ یا صرفاً الگوهای آماری را بازتولید میکنند؟
صعود ماشینها: آیا هوش مصنوعی میتواند قضاوت کند؟
در سال 2022، یک آزمایش جالب در دانشگاه استنفورد انجام شد که در آن از مدلهای هوش مصنوعی خواسته شد تا تصمیمات اخلاقی در سناریوهای پیچیده اتخاذ کنند. در مواردی مانند «مسئله واگن» که باید بین جان دو گروه از افراد یکی را نجات داد، مدلهای زبانی به پاسخهایی میرسیدند که شباهت زیادی به قضاوتهای انسانی داشتند. اما این تصمیمات بر پایه یادگیری الگوهای قبلی بود، نه تجربه زیسته.
از سوی دیگر، متفکرانی مانند راجر پنروز و جان سرل معتقدند که حتی پیچیدهترین سیستمهای هوش مصنوعی نیز فاقد «نیتمندی» (Intentionality) هستند. نظریه «اتاق چینی» سرل نشان میدهد که پردازش زبان در سطح بالای ماشینها به معنی درک واقعی نیست، بلکه صرفاً تطبیق الگوها و پاسخدهی بر اساس احتمالهای آماری است
شکاف بین دانستن و درک کردن: آمارها چه میگویند؟
برای درک بهتر محدودیتهای هوش مصنوعی در قضاوت و حکمت، بررسی چند آمار واقعی جالب خواهد بود:
طبق گزارش مؤسسه مککینزی (2023)، 72٪ از مدیران ارشد شرکتهای بزرگ معتقدند که AI میتواند فرایند تصمیمگیری را بهبود بخشد، اما تنها 18٪ بر این باورند که این سیستمها میتوانند تصمیماتی با سطح اخلاقی مشابه انسان بگیرند.
یک مطالعه در MIT نشان داد که مدلهای زبانی میتوانند استدلالهایی شبیه انسان ارائه دهند، اما در 35٪ مواقع درک اشتباه از متنهای مبهم یا طنزآمیز دارند.
در یک آزمایش در گوگل، مدلهای هوش مصنوعی در پاسخ به سوالات اخلاقی پیچیده در 60٪ مواقع با نظرات انسانها هماهنگ بودند، اما در 40٪ مواقع پاسخهایی ارائه کردند که بهنظر میرسید تنها بر اساس آمار و نه درک واقعی از ارزشها شکل گرفته است.
آینده: نزدیک شدن به مرز درک یا تقلیدی پیچیدهتر؟
چهرههایی مانند ایلان ماسک هشدار دادهاند که ما به سمت «تکینگی» (Singularity) پیش میرویم؛ لحظهای که در آن AI از سطح محاسباتی به نوعی خودآگاهی میرسد. اما فیلسوفانی مانند نیک بوستروم بر این باورند که حتی اگر AI به درکی سطحی از اخلاق دست یابد، این نوع قضاوت هرگز نمیتواند جایگزین تجربه انسانی شود.
ما در کجای این مسیر ایستادهایم؟ آیا ماشینها صرفاً شبحی از حکمت انسانی را ارائه میدهند، یا واقعاً در حال عبور از شکاف دانستن به درک کردن هستند؟ در نهایت، مسئولیت اخلاقی و قضاوت، همچنان در دستان انسان باقی میماند؛ چرا که تجربه زیسته، عاملیت، و درک از پیامدها، چیزهایی هستند که هیچ الگوریتمی نمیتواند آنها را تجربه کند.