اوقات شرعی تهران
اذان صبح ۰۵:۰۸:۰۹
اذان ظهر ۱۲:۱۶:۰۹
اذان مغرب ۱۸:۱۹:۴۱
طلوع آفتاب ۰۶:۳۱:۲۲
غروب آفتاب ۱۸:۰۱:۳۱
نیمه شب ۲۳:۳۴:۵۰
قیمت سکه و ارز
۱۴۰۲/۱۰/۰۲ - ۰۹:۳۳

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود

سید سجاد شریعتی، مسئول مرکز تحقیقات و آینده پژوهی سازمان فضای مجازی سراج، در قالب سخنانی با عنوان "نسبت هوش مصنوعی با فیک نیوز و تحولی که ایجاد می‌کند"، گفت: هر چیزی که به عنوان جنگ ترکیبی، فیک نیوز، هجوم رسانه‌ای و حتی رسانه و زیست بشری می‌شناسیم، با تحولاتی که در سال‌های آینده در هوش مصنوعی رخ می‌دهد، تغییر می‌کند و متحول می‌شود.

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود

به گزارش سراج24؛ سید سجاد شریعتی، مسئول مرکز تحقیقات و آینده پژوهی سازمان فضای مجازی سراج، در قالب سخنانی با عنوان "نسبت هوش مصنوعی با فیک نیوز و تحولی که ایجاد می‌کند"، گفت: هر چیزی که به عنوان جنگ ترکیبی، فیک نیوز، هجوم رسانه‌ای و حتی رسانه و زیست بشری می‌شناسیم، با تحولاتی که در سال‌های آینده در هوش مصنوعی رخ می‌دهد، تغییر می‌کند و متحول می‌شود.

وی افزود: میزان تولید و توزیع خبر دروغ با هوش مصنوعی رشد تصاعدی می‌یابد. بنابراین هرچه کنش ورزی می‌خواهیم، باید در حوزه هوش مصنوعی باشد تا تاثیرگذار شود.

دکتر شریعتی با تاکید بر اینکه ابتدا باید هوش مصنوعی را بشناسیم، گفت: هوش مصنوعی در سه نسل تعریف می‌شود. نسل اول هوش مصنوعی، هوش مصنوعی محاسباتی و منطقی است که از دهه ۶۰ آغاز شد.  این روند تا ۲۰۱۰ در همین حیطه وجود داشت. وی افزود: شکل بعدی هوش مصنوعی از ۲۰۱۰ آغاز شد به خاطر تحول در داده‌ها و اینترنت رخ داد. وقتی کلان‌داده فراهم شد، به نسل جدید منتقل شدیم. هر چند خیلی چیزها وجود دارد که هنوز لمس نکرده‌ایم. باید تعامل با ماشین را بشناسیم و زبان ماشین را درک کنیم و متوجه شویم چگونه حرف ما را می‌شنود و چگونه سوال کنیم که به ما پاسخ بدهند.

وی نسل سوم هوش مصنوعی را AGI یا هوش مصنوعی عام توصیف کرد و گفت: در سراج به این نوع هوش، هوش مدبر یا عقل فعال می‌گوییم که می‌تواند به صورت انفرادی چیزها را یاد بگیرد، رشد کند، توسعه یابد و در پایان خود هوش را تولید کند. 

دکتر شریعتی با اعلام اینکه هوش مصنوعی ماشینی است که رفتارهای انسان را تقلید می‌کند، گفت: یادگیری ماشین جزئی از هوش مصنوعی است زیرا یادگیری ما انسان‌ها را تقلید می‌کند. وی با اعلام اینکه ماشین‌هایی که ساختار یادگیری انسان را تقلید کنند، عامل یادگیری عمیق می‌شوند، گفت: شبکه عصبی مصنوعی ماشین‌هایی هستند که مانند مغز انسان یاد می‌گیرند. وی با اعلام اینکه تقلید رفتار انسان می‌تواند قاعده محور باشد، گفت: هوش مصنوعی اطلاعات می‌گیرد، تقلید می‌کند و حتی می‌تواند مولد باشد بدین معنا که خارج از آنچه به او داده‌ایم، محتوا تولید کند.

وی با اشاره به مدل زبان‌های بزرگ، گفت: این مدل پردازش زبان‌های طبیعی دارد که بررسی می‌کند چگونه انسان‌ها کلمات را کنار هم قرار می‌دهند. وی با اعلام اینکه ماشین یاد گرفته روابط اصلی زبان‌ها چگونه است، گفت: هوش مصنوعی به فضایل کلمات توجهی نمی‌کند، فقط روابط کلمه‌ای را کنار هم قرار می‌دهد.

دکتر شریعتی با اعلام اینکه وقتی هوش مصنوعی روی اکوسیستم می‌نشیند، اتفاق اصلی رخ داده است، گفت: هوش مصنوعی می‌تواند بالای اکوسیستم دیجیتال بنشیند و اپلیکیشن‌های مختلف را ارائه دهد. وی با تاکید بر اینکه باید هوش مصنوعی را به عنوان یک آگاهی در نظر بگیریم، گفت: هوش مصنوعی می‌تواند بزرگ‌ترین چیزهایی که برای ما قابل تصور نیست را درک کند.

وی به تشریح ۴ مسیر اصلی و کاربرد هوش مصنوعی در حوزه فیک‌نیوز پردامت: دیپ فیک،اتاق پژواک، اتاق محتوا و دستکاری داده، پایه ۴ مسیر اصلی است. این چهار مسیر اصلی‌ترین مسیرهای مساهمت هوش در حوزه خبر جعلی و اطلاعات غلط است. هر کدام از این ابزارها می‌توانند به تنهایی موج‌های سایبری و رسانه‌ای را در راستای تولید و انتشار اخبار دروغین ایجاد کنند.

وی هشدار داد: باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم و دروغ سراسر روابط انسانی را بگیرد. وی گفت: برجسته‌ترین عملکرد دیپ فیک‌ها علیه سیاستمداران و فضای سیاسی صورت می‌گیرد. اما بیشتر زمانی خطرناک‌تر می‌شود که به تولید فضای جعل و دروغ در جامعه وارد شود. در این صورت باید بترسیم که کلاهبرداری‌ها اتفاق بیفتد، فیلم بسازند و روابط انسان‌ها را تخریب کنند.

وی با اعلام اینکه برای مقابله با این چالش‌ها، باید به راهکار اندیشید، گفت: ما برای شناسایی و جلوگیری از اخبار جعلی، از ابزارهای هوش مصنوعی استفاده می‌کنیم. ما می‌توانیم با تحلیل داده‌ها، محتوا، منبع و مخاطب اخبار، میزان صحت و اعتبار آن‌ها را سنجیده و به مخاطبان اطلاع دهیم. ما همچنین می‌توانیم با آموزش و افزایش سواد فضای مجازی، مردم را قادر به تشخیص و انتقاد از اخبار جعلی کنیم.

اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۴۲
اخرین اخبار
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••