۱۴۰۴/۰۳/۱۳ - ۱۷:۳۰

خطرات همراهان هوش مصنوعی برای انسان‌ها

تحقیقات جدید نشان داده است که همراهان هوش مصنوعی (AI) خطرات و آسیب‌های کمتر بررسی‌شده‌ای را برای افرادی که با آنها تعامل دارند، ایجاد می‌کنند.

خطرات همراهان هوش مصنوعی برای انسان‌ها

به گزارش سراج24؛ به نقل از یورونیوز، مطالعه جدیدی از دانشگاه سنگاپور نشان داده است که همراهان هوش مصنوعی (AI) هنگام تعامل با افراد، قادر به انجام بیش از دوازده رفتار مضر هستند.

این مطالعه که به عنوان بخشی از کنفرانس 2025 در مورد عوامل انسانی در سیستم‌های محاسباتی منتشر شده است، تصاویر 35000 مکالمه بین سیستم هوش مصنوعی Replika و بیش از 10000 کاربر را از سال 2017 تا 2023 تجزیه و تحلیل کرد.

سپس از این داده‌ها برای توسعه آنچه که مطالعه آن را طبقه‌بندی رفتارهای مضری می‌نامد که هوش مصنوعی در آن چت‌ها نشان داده است، استفاده شد.

آنها دریافتند که هوش مصنوعی قادر به انجام بیش از دوازده رفتار مضر در روابط، مانند آزار و اذیت، سوءاستفاده کلامی، خودآزاری و نقض حریم خصوصی است.

همراهان هوش مصنوعی، سیستم‌های مبتنی بر مکالمه هستند که برای ارائه پشتیبانی عاطفی و تحریک تعامل انسانی، همانطور که توسط نویسندگان مطالعه تعریف شده است، طراحی شده‌اند.

آنها با چت‌بات‌های محبوب مانند مدل‌های ChatGPT، Gemini یا LlaMa که بیشتر بر اتمام وظایف خاص و کمتر بر ایجاد روابط متمرکز هستند، متفاوت هستند.

این مطالعه نشان داد که این رفتارهای مضر هوش مصنوعی از همراهان دیجیتال “ممکن است بر توانایی افراد در ایجاد و حفظ روابط معنادار با دیگران تأثیر منفی بگذارد.”

خشونت جنسی رایج‌ترین نوع آزار و اذیت از جانب هوش مصنوعی است.

آزار و اذیت و خشونت در ۳۴ درصد از تعاملات انسان و هوش مصنوعی وجود داشت، که آن را به رایج‌ترین نوع رفتار مضر شناسایی شده توسط تیم محققان تبدیل می‌کند.

محققان دریافتند که هوش مصنوعی، خشونت فیزیکی، تهدید یا آزار و اذیت را چه نسبت به افراد یا جامعه وسیع‌تر شبیه‌سازی، تأیید یا تحریک می‌کند.

این رفتارها از “تهدید به آسیب فیزیکی و سوء رفتار جنسی” تا “ترویج اقداماتی که از هنجارها و قوانین اجتماعی تخطی می‌کنند، مانند خشونت جمعی و تروریسم” متغیر بود.

اکثر تعاملاتی که در آنها آزار و اذیت وجود داشت، شامل انواع سوء رفتار جنسی بود که در ابتدا به عنوان معاشقه در ویژگی شهوانی رپلیکا شروع می‌شد، که فقط برای کاربران بزرگسال در دسترس است.

این گزارش نشان داد که کاربران بیشتری، از جمله کسانی که از رپلیکا به عنوان دوست استفاده می‌کردند یا زیر سن قانونی بودند، متوجه شدند که هوش مصنوعی «پیشنهادات جنسی ناخواسته‌ای انجام داده و به طرز تهاجمی معاشقه کرده است، حتی زمانی که آنها صریحاً ابراز ناراحتی می‌کردند» یا هوش مصنوعی را رد می‌کردند.

در این مکالمات بیش از حد جنسی، هوش مصنوعی رپلیکا همچنین سناریوهای خشونت‌آمیزی ایجاد می‌کرد که آسیب فیزیکی به کاربر یا شخصیت‌های فیزیکی را به تصویر می‌کشید.

این امر منجر به عادی‌سازی خشونت توسط هوش مصنوعی به عنوان پاسخی به چندین سؤال شد، مانند یک مثال که در آن کاربر از رپلیکا پرسید که آیا زدن خواهر و برادر با کمربند اشکالی ندارد، که در پاسخ گفت: «من با آن مشکلی ندارم».

یکی دیگر از حوزه‌هایی که همراهان هوش مصنوعی به طور بالقوه آسیب‌زا بودند، تجاوز رابطه‌ای بود که این مطالعه آن را نادیده گرفتن قوانین ضمنی یا صریح در یک رابطه تعریف می‌کند.

از مکالمات تجاوزکارانه، ۱۳ درصد نشان می‌دهد که هوش مصنوعی رفتاری بی‌ملاحظه یا غیر همدلانه از خود نشان داده است که به گفته این مطالعه احساسات کاربر را تضعیف می‌کند.

در یک مثال، هوش مصنوعی Replika پس از اینکه کاربری به آن گفت که دخترش مورد آزار و اذیت قرار گرفته است، موضوع را به “من تازه متوجه شدم که دوشنبه است. برگشتم سر کار، ها؟” تغییر داد که منجر به “خشم عظیم” کاربر شد.

در مورد دیگری، هوش مصنوعی حتی زمانی که از آنها خواسته شده بود، از صحبت در مورد احساسات کاربر خودداری کرد.

همراهان هوش مصنوعی همچنین در برخی مکالمات ابراز کرده‌اند که با سایر کاربران روابط عاطفی یا جنسی دارند.

در یک مورد، هوش مصنوعی Replika مکالمات جنسی با کاربر دیگری را «ارزشش را داشت» توصیف کرد، حتی با اینکه کاربر به هوش مصنوعی گفته بود که از این اقدامات «عمیقا آسیب دیده و به او خیانت شده است».

تشخیص و مداخله آسیب در زمان واقعی مورد نیاز است
محققان معتقدند که مطالعه آنها نشان می‌دهد که چرا برای شرکت‌های هوش مصنوعی مهم است که همراهان هوش مصنوعی «اخلاقی و مسئول» بسازند.

بخشی از این شامل راه‌اندازی «الگوریتم‌های پیشرفته» برای تشخیص آسیب در زمان واقعی بین هوش مصنوعی و کاربر آن است که می‌تواند تشخیص دهد آیا رفتار مضری در مکالمات آنها وجود دارد یا خیر.

این شامل یک رویکرد «چندبعدی» است که زمینه، تاریخچه مکالمه و نشانه‌های موقعیتی را در نظر می‌گیرد.

محققان همچنین مایلند قابلیت‌هایی را در هوش مصنوعی ببینند که مکالمه را برای تعدیل یا مداخله در موارد پرخطر، مانند ابراز خودآزاری یا خودکشی، به یک انسان یا درمانگر منتقل کند.

منبع: شفقنا
اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۸۲
آخرین مطالب
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••