
به گزارش سراج24؛ امروزه فعالان فضای مجازی و مدرسان سواد رسانه به تحقیق در زمینه “اخبار جعلی “و “هوش مصنوعی “باید بسیار هوشیار و یک پزوهشگر واقعی باشند. چراکه اخبار جعلی، بهویژه با توانمندسازی هوش مصنوعی، تأثیرات عمیق و چندوجهی بر جامعه و خود فناوری هوش مصنوعی دارد. به نظرم این تأثیرات را میتوان در دو محور اصلی “تأثیرات مخرب بر جامعه”و “تعامل پیچیده با هوش مصنوعی” (هم بهعنوان راهحل و هم بخشی از مشکل) بررسی کرد:
۱٫ تأثیرات مخرب اخبار جعلی بر جامعه
الف. تهدید دموکراسی و امنیت ملی:
– تحریف افکار عمومی: اخبار جعلی در رویدادهایی مانند برگزیت و انتخابات آمریکا جهتدهی به افکار عمومی را نشان دادهاند . با ظهور جعلهای عمیق(Deepfakes)، ساخت ویدئوهای جعلی از سیاستمداران برای بیان سخنان نژادپرستانه یا خشونتآمیز، اعتماد به نهادهای دموکراتیک را تضعیف میکند .
– جنگ شناختی: در بحرانهایی مانند زلزله میانمار، ویدئوهای جعلی ایجادشده با هوش مصنوعی، واکنشهای امدادی را مختل و امنیت ملی را تهدید میکند .
ب. تخریب سلامت روان و اجتماعی :
– سرقت هویت و پورنوگرافی انتقامجویانه : بیش از ۸۰% محتوای جعلی در فضای مجازی مربوط به جعل چهره زنان در محتوای غیراخلاقی است که آسیبهای روانی ماندگاری ایجاد میکند .
– یعلاقگی به واقعیت (Reality Apathy): مواجهه مداوم با اخبار جعلی منجر به بیاعتمادی عمومی به همه منابع اطلاعاتی و فروپاشی گفتوگوی اجتماعیمیشود .
ج. اختلال در اقتصاد و سلامت عمومی:
– نوسانات بازارهای مالی: انتشار اخبار جعلی درباره شرکتها باعث نوسان شدید قیمت سهام و بیثباتی اقتصادی میشود .
– تضعیف سیستم سلامت: اطلاعات نادرست درباره واکسنها (مانند استعفای مقام سازمان غذا و داروی آمریکا) منجر به کاهش اثربخشی برنامههای سلامت عمومی میگردد .
۲٫ تعامل اخبار جعلی و هوش مصنوعی: چالشها و راهحلها
الف. هوش مصنوعی بهعنوان بخشی از مشکل:
– تولید انبوه محتوای جعلی : هوش مصنوعی ساخت محتوای متنی، صوتی و تصویری فریبنده را دموکراتیک کرده است. بهطور مثال، ابزارهایی مانند Deepfakes ایجاد ویدئوهای جعلی را برای افراد عادی ممکن ساختهاند .
– پیچیدگی تشخیص : جعلهای عمیق با قابلیت هماهنگی صدا و تصویر (Lip-synced) حتی متخصصان را نیز گمراه میکنند .
ب. هوش مصنوعی بهعنوان بخشی از راهحل:
– شناسایی الگوهای پنهان : مدلهای یادگیری ماشین مانند جنگل تصادفی(Random Forest) با دقت ۹۸٫۳٪ اخبار جعلی را از طریق تحلیل سبک نگارش، تناقضهای محتوایی و اعتبارسنجی منابع تشخیص میدهند .
– راستیآزمایی دیجیتال: سامانههایی مانند “AI4TRUST” در اروپا با تحلیل چندزبانهی محتوا و رصد شبکههای اجتماعی، هشدارهای لحظهای صادر میکنند .
– کاربرد در حوزه فارسی : پروژههایی مانند “تاجتل”با مجموعهدادههای فارسی و مدلهای شبکه عصبی پیچشی (CNN) به دقت ۹۰٫۴۶٪ در شناسایی اخبار جعلی در تلگرام رسیدهاند .
ج. چالشهای فناورانه:
– تطابق پذیری اخبار جعلی : الگوریتمهای فعلی ممکن است در تشخیص اخبار جعلی آینده (مانند جعلهای عمیق پیشرفته) ناتوان باشند .
– رمزگذاری پیامها : استفاده از پیامرسانهای رمزگذاریشده (مانند واتساپ) ردیابی اخبار جعلی را دشوار میکند .
۳٫ راهکارهای کلان برای مقابله
الف. راهکارهای فناورانه:
-سامانههای بومی هوش مصنوعی : توسعه سامانههای راستیآزمایی با قابلیت پردازش زبانهای فارسی، عربی و انگلیسی برای کشورهایی مانند ایران یک ضرورت “راهبردی ” است .
– دغام تحلیل انسانی و ماشینی : پروژههایی مانند “Full Fact” در بریتانیا نشان میدهند ترکیب هوش مصنوعی با تحلیل انسانی دقت را افزایش میدهد .
ب. راهکارهای اجتماعی و حکمرانی :
– سواد رسانهای و AI Literacy آموزش شهروندان در تفکیک منابع معتبر از نامعتبر، بهویژه برای نسل جوان .
– قوانین سختگیرانه : ایجاد نهادهای حاکمیتی جهانی (تحت نظارت سازمان ملل) برای تنظیمگری اخلاقی هوش مصنوعی و الزام توسعهدهندگان به رعایت سوگندنامههای اخلاقی(مانند دورههای اخلاق هاروارد و MIT) .
– حمایت از روزنامهنگاری تحقیقی : استفاده از هوش مصنوعی برای ردیابی شبکههای سازمانیافته انتشار اخبار جعلی و افشای انگیزههای پشتپرده .
ج. چارچوبهای سیاستی :
– حکمرانی دادهمحور : تدوین سیاستهایی برای تضمین شفافیت الگوریتمها و جلوگیری از سوگیریهای نژادی یا ایدئولوژیک .
– همکاری جهانی : مقابله با اخبار جعلی نیازمند همکاری بینالمللی شبیه ویکیپدیااست تا دانش جمعی برای شناسایی جعلها بسیج شود .
نتیجهگیری
اخبار جعلی در عصر هوش مصنوعی به یک تهدید چندبعدی تبدیل شده است: از تخریب اعتماد اجتماعی تا تهدید امنیت ملی. هوش مصنوعی در این میدان هم سلاح است هم”سپر” آینده این نبرد به توسعه فناوریهای تشخیص پیشرفته، سرمایهگذاری در سواد رسانهای، و تدوین چارچوبهای حکمرانیِ مبتنی بر اخلاق وابسته است. همانطور که مارک ون رایمنام هشدار میدهد: «اگر به مشکلات هوش مصنوعی توجه نشود، مقابله با آن در آینده ناممکن خواهد شد» .
نویسنده: فاطمه حیدری - مدرس سواد رسانه