۱۴۰۴/۰۳/۲۰ - ۱۶:۲۶

تهدید کودکان با استفاده افراطی از هوش مصنوعی

استفاده افراطی شرکت آمریکایی متا از هوش مصنوعی برای بررسی و شناسایی محتوای خطرناک، باعث اعتراض و هشدار برخی نهادهای مدنی در انگلیس شده است.

تهدید کودکان با استفاده افراطی از هوش مصنوعی

به گزارش سراج24 به نقل از گاردین، فعالان امنیت اینترنت در انگلیس، پس از انتشار گزارشی مبنی بر اینکه مارک زاکربرگ مدیرعامل شرکت متا و مالک اینستاگرام و فیس‌بوک قصد دارد روند بررسی محتوا را خودکار کند، از نهاد ناظر بر ارتباطات این کشور خواسته‌اند بر متا فشار آورد تا استفاده از هوش مصنوعی را در ارزیابی‌های مهم محتوای خطرناک محدود کند.

این نهاد موسوم به آفکام اعلام کرد پس از انتشار گزارشی در ماه گذشته مبنی بر اینکه تا ۹۰ درصد از کل ارزیابی‌های ریسک در فیس‌بوک، اینستاگرام و واتس‌اپ به زودی توسط هوش مصنوعی انجام خواهد شد، نگرانی‌های مطرح شده توسط فعالان مدنی را در نظر می‌گیرد. 

طبق قانون ایمنی آنلاین بریتانیا، شبکه‌های اجتماعی موظف‌اند این مساله را ارزیابی کنند که چگونه ممکن است خدمات آنها در معرض ایجاد آسیب برای کاربران قرار بگیرد و آنها چگونه این آسیب‌های احتمالی را کاهش می‌دهند. در این قانون تمرکز ویژه بر محافظت از کاربران کودک و جلوگیری از انتشار محتوای غیرقانونی برای آنها وجود دارد. فرایند ارزیابی ریسک به‌عنوان جنبه کلیدی این قانون در نظر گرفته می‌شود. 

سازمان‌هایی از جمله بنیاد مالی رز و بنیاد دیده‌بان اینترنت، با ارسال نامه‌ای به ملانی داوز، مدیر اجرایی آفکام، چشم‌انداز ارزیابی ریسک مبتنی بر هوش مصنوعی را گامی قهقرایی و بسیار نگران‌کننده توصیف کردند.

در این نامه آمده است: ما از شما می‌خواهیم به‌طور عمومی اعلام کنید که ارزیابی ریسک معمولاً مناسب و کافی و متناسب با استاندارد موردنیاز پیش‌بینی‌شده در قانون نیست و این ارزیابی‌ها به‌طور کامل یا عمدتاً از طریق ابزار خودکار تولید شده‌اند.

در این نامه همچنین از آفکام خواسته شده هرگونه روش فرضی را که باعث تضعیف فرایندهای ارزیابی ریسک سکوها می‌شود، به چالش بکشد. 

سخنگوی آفکام در واکنش گفت: ما به‌صراحت گفته‌ایم سکو‌ها باید به ما بگویند چه کسی ارزیابی ریسک آنها را تکمیل، بررسی و تأیید کرده است. ما در حال بررسی نگرانی‌های مطرح‌شده در این نامه هستیم و در زمان مناسب به آنها پاسخ خواهیم داد.

منبع: فارس
اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۸۳
آخرین مطالب
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••