۱۴۰۳/۱۲/۰۹ - ۰۱:۱۴

هوش مصنوعی فقط یک توهم است!

هوش مصنوعی هر روز باهوش‌تر می‌شود، اما آیا واقعاً می‌فهمد؟ وقتی ماشین‌ها در آزمون‌های اخلاقی مردد می‌مانند، آیا باید نگران باشیم؟ شاید AI فقط یک توهم از دانش باشد، نه چیزی بیشتر!

هوش مصنوعی فقط یک توهم است!

به گزارش سراج24؛ در سال 2023، محققان گوگل دیپ‌مایند مدل هوش مصنوعی Gemini را معرفی کردند که توانایی‌های استدلالی آن به حدی پیچیده بود که برخی آن را «نزدیک‌ترین چیز به تفکر انسانی» دانستند.
در همان سال، سام آلتمن، مدیرعامل OpenAI، درباره امکان رسیدن به «هوش عمومی مصنوعی» (AGI) هشدار داد؛ سیستمی که نه‌تنها داده‌ها را پردازش می‌کند بلکه شاید بتواند به‌طور واقعی «درک» کند.
اما این پرسش همچنان مطرح است: آیا افزایش قدرت پردازشی و مدل‌های پیچیده یادگیری عمیق، ماشین‌ها را از سطح دانستن به سطح درک کردن و قضاوت اخلاقی می‌برد؟ یا شکافی غیرقابل عبور بین شناخت ماشینی و حکمت انسانی وجود دارد؟
از باغ عدن تا الگوریتم‌های عصبی!
مسیحیان معتقدند از نخستین لحظه‌ای که آدم (ع) و حوا از «درخت معرفت» خوردند، آگاهی انسان متحول شد! در روایت‌های دینی و فلسفی اسلامی نیز، دانش چیزی فراتر از دریافت اطلاعات است؛ تجربه‌ای است که به تشخیص و تمایز اخلاقی می‌انجامد. در فلسفه ارسطو، «فرونسیس» یا حکمت عملی، تنها از طریق تجربه زندگی و مواجهه با موقعیت‌های واقعی شکل می‌گیرد، نه با حفظ داده‌ها یا پردازش اطلاعات.
امروزه، شبکه‌های عصبی مصنوعی و مدل‌های زبانی مانند GPT-4، به تحلیل و پردازش داده‌هایی می‌پردازند که در طول تاریخ بشر گردآوری شده است. آیا این بدان معناست که آن‌ها می‌توانند واقعاً قضاوت اخلاقی کنند؟ یا صرفاً الگوهای آماری را بازتولید می‌کنند؟
صعود ماشین‌ها: آیا هوش مصنوعی می‌تواند قضاوت کند؟
در سال 2022، یک آزمایش جالب در دانشگاه استنفورد انجام شد که در آن از مدل‌های هوش مصنوعی خواسته شد تا تصمیمات اخلاقی در سناریوهای پیچیده اتخاذ کنند. در مواردی مانند «مسئله واگن» که باید بین جان دو گروه از افراد یکی را نجات داد، مدل‌های زبانی به پاسخ‌هایی می‌رسیدند که شباهت زیادی به قضاوت‌های انسانی داشتند. اما این تصمیمات بر پایه یادگیری الگوهای قبلی بود، نه تجربه زیسته.
از سوی دیگر، متفکرانی مانند راجر پنروز و جان سرل معتقدند که حتی پیچیده‌ترین سیستم‌های هوش مصنوعی نیز فاقد «نیت‌مندی» (Intentionality) هستند. نظریه «اتاق چینی» سرل نشان می‌دهد که پردازش زبان در سطح بالای ماشین‌ها به معنی درک واقعی نیست، بلکه صرفاً تطبیق الگوها و پاسخ‌دهی بر اساس احتمال‌های آماری است
شکاف بین دانستن و درک کردن: آمارها چه می‌گویند؟
برای درک بهتر محدودیت‌های هوش مصنوعی در قضاوت و حکمت، بررسی چند آمار واقعی جالب خواهد بود:
طبق گزارش مؤسسه مک‌کینزی (2023)، 72٪ از مدیران ارشد شرکت‌های بزرگ معتقدند که AI می‌تواند فرایند تصمیم‌گیری را بهبود بخشد، اما تنها 18٪ بر این باورند که این سیستم‌ها می‌توانند تصمیماتی با سطح اخلاقی مشابه انسان بگیرند.
یک مطالعه در MIT نشان داد که مدل‌های زبانی می‌توانند استدلال‌هایی شبیه انسان ارائه دهند، اما در 35٪ مواقع درک اشتباه از متن‌های مبهم یا طنزآمیز دارند.
در یک آزمایش در گوگل، مدل‌های هوش مصنوعی در پاسخ به سوالات اخلاقی پیچیده در 60٪ مواقع با نظرات انسان‌ها هماهنگ بودند، اما در 40٪ مواقع پاسخ‌هایی ارائه کردند که به‌نظر می‌رسید تنها بر اساس آمار و نه درک واقعی از ارزش‌ها شکل گرفته است.
آینده: نزدیک شدن به مرز درک یا تقلیدی پیچیده‌تر؟
چهره‌هایی مانند ایلان ماسک هشدار داده‌اند که ما به سمت «تکینگی» (Singularity) پیش می‌رویم؛ لحظه‌ای که در آن AI از سطح محاسباتی به نوعی خودآگاهی می‌رسد. اما فیلسوفانی مانند نیک بوستروم بر این باورند که حتی اگر AI به درکی سطحی از اخلاق دست یابد، این نوع قضاوت هرگز نمی‌تواند جایگزین تجربه انسانی شود.
ما در کجای این مسیر ایستاده‌ایم؟ آیا ماشین‌ها صرفاً شبحی از حکمت انسانی را ارائه می‌دهند، یا واقعاً در حال عبور از شکاف دانستن به درک کردن هستند؟ در نهایت، مسئولیت اخلاقی و قضاوت، همچنان در دستان انسان باقی می‌ماند؛ چرا که تجربه زیسته، عاملیت، و درک از پیامدها، چیزهایی هستند که هیچ الگوریتمی نمی‌تواند آن‌ها را تجربه کند.

منبع: فارس
اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۷۶
آخرین مطالب
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••