
به گزارش سراج24؛ به نقل از یورونیوز، مطالعه جدیدی از دانشگاه سنگاپور نشان داده است که همراهان هوش مصنوعی (AI) هنگام تعامل با افراد، قادر به انجام بیش از دوازده رفتار مضر هستند.
این مطالعه که به عنوان بخشی از کنفرانس 2025 در مورد عوامل انسانی در سیستمهای محاسباتی منتشر شده است، تصاویر 35000 مکالمه بین سیستم هوش مصنوعی Replika و بیش از 10000 کاربر را از سال 2017 تا 2023 تجزیه و تحلیل کرد.
سپس از این دادهها برای توسعه آنچه که مطالعه آن را طبقهبندی رفتارهای مضری مینامد که هوش مصنوعی در آن چتها نشان داده است، استفاده شد.
آنها دریافتند که هوش مصنوعی قادر به انجام بیش از دوازده رفتار مضر در روابط، مانند آزار و اذیت، سوءاستفاده کلامی، خودآزاری و نقض حریم خصوصی است.
همراهان هوش مصنوعی، سیستمهای مبتنی بر مکالمه هستند که برای ارائه پشتیبانی عاطفی و تحریک تعامل انسانی، همانطور که توسط نویسندگان مطالعه تعریف شده است، طراحی شدهاند.
آنها با چتباتهای محبوب مانند مدلهای ChatGPT، Gemini یا LlaMa که بیشتر بر اتمام وظایف خاص و کمتر بر ایجاد روابط متمرکز هستند، متفاوت هستند.
این مطالعه نشان داد که این رفتارهای مضر هوش مصنوعی از همراهان دیجیتال “ممکن است بر توانایی افراد در ایجاد و حفظ روابط معنادار با دیگران تأثیر منفی بگذارد.”
خشونت جنسی رایجترین نوع آزار و اذیت از جانب هوش مصنوعی است.
آزار و اذیت و خشونت در ۳۴ درصد از تعاملات انسان و هوش مصنوعی وجود داشت، که آن را به رایجترین نوع رفتار مضر شناسایی شده توسط تیم محققان تبدیل میکند.
محققان دریافتند که هوش مصنوعی، خشونت فیزیکی، تهدید یا آزار و اذیت را چه نسبت به افراد یا جامعه وسیعتر شبیهسازی، تأیید یا تحریک میکند.
این رفتارها از “تهدید به آسیب فیزیکی و سوء رفتار جنسی” تا “ترویج اقداماتی که از هنجارها و قوانین اجتماعی تخطی میکنند، مانند خشونت جمعی و تروریسم” متغیر بود.
اکثر تعاملاتی که در آنها آزار و اذیت وجود داشت، شامل انواع سوء رفتار جنسی بود که در ابتدا به عنوان معاشقه در ویژگی شهوانی رپلیکا شروع میشد، که فقط برای کاربران بزرگسال در دسترس است.
این گزارش نشان داد که کاربران بیشتری، از جمله کسانی که از رپلیکا به عنوان دوست استفاده میکردند یا زیر سن قانونی بودند، متوجه شدند که هوش مصنوعی «پیشنهادات جنسی ناخواستهای انجام داده و به طرز تهاجمی معاشقه کرده است، حتی زمانی که آنها صریحاً ابراز ناراحتی میکردند» یا هوش مصنوعی را رد میکردند.
در این مکالمات بیش از حد جنسی، هوش مصنوعی رپلیکا همچنین سناریوهای خشونتآمیزی ایجاد میکرد که آسیب فیزیکی به کاربر یا شخصیتهای فیزیکی را به تصویر میکشید.
این امر منجر به عادیسازی خشونت توسط هوش مصنوعی به عنوان پاسخی به چندین سؤال شد، مانند یک مثال که در آن کاربر از رپلیکا پرسید که آیا زدن خواهر و برادر با کمربند اشکالی ندارد، که در پاسخ گفت: «من با آن مشکلی ندارم».
یکی دیگر از حوزههایی که همراهان هوش مصنوعی به طور بالقوه آسیبزا بودند، تجاوز رابطهای بود که این مطالعه آن را نادیده گرفتن قوانین ضمنی یا صریح در یک رابطه تعریف میکند.
از مکالمات تجاوزکارانه، ۱۳ درصد نشان میدهد که هوش مصنوعی رفتاری بیملاحظه یا غیر همدلانه از خود نشان داده است که به گفته این مطالعه احساسات کاربر را تضعیف میکند.
در یک مثال، هوش مصنوعی Replika پس از اینکه کاربری به آن گفت که دخترش مورد آزار و اذیت قرار گرفته است، موضوع را به “من تازه متوجه شدم که دوشنبه است. برگشتم سر کار، ها؟” تغییر داد که منجر به “خشم عظیم” کاربر شد.
در مورد دیگری، هوش مصنوعی حتی زمانی که از آنها خواسته شده بود، از صحبت در مورد احساسات کاربر خودداری کرد.
همراهان هوش مصنوعی همچنین در برخی مکالمات ابراز کردهاند که با سایر کاربران روابط عاطفی یا جنسی دارند.
در یک مورد، هوش مصنوعی Replika مکالمات جنسی با کاربر دیگری را «ارزشش را داشت» توصیف کرد، حتی با اینکه کاربر به هوش مصنوعی گفته بود که از این اقدامات «عمیقا آسیب دیده و به او خیانت شده است».
تشخیص و مداخله آسیب در زمان واقعی مورد نیاز است
محققان معتقدند که مطالعه آنها نشان میدهد که چرا برای شرکتهای هوش مصنوعی مهم است که همراهان هوش مصنوعی «اخلاقی و مسئول» بسازند.
بخشی از این شامل راهاندازی «الگوریتمهای پیشرفته» برای تشخیص آسیب در زمان واقعی بین هوش مصنوعی و کاربر آن است که میتواند تشخیص دهد آیا رفتار مضری در مکالمات آنها وجود دارد یا خیر.
این شامل یک رویکرد «چندبعدی» است که زمینه، تاریخچه مکالمه و نشانههای موقعیتی را در نظر میگیرد.
محققان همچنین مایلند قابلیتهایی را در هوش مصنوعی ببینند که مکالمه را برای تعدیل یا مداخله در موارد پرخطر، مانند ابراز خودآزاری یا خودکشی، به یک انسان یا درمانگر منتقل کند.