اوقات شرعی تهران
اذان صبح ۰۵:۳۱:۵۴
اذان ظهر ۱۱:۵۷:۴۸
اذان مغرب ۱۷:۱۱:۰۵
طلوع آفتاب ۰۷:۰۲:۳۲
غروب آفتاب ۱۶:۵۰:۵۴
نیمه شب ۲۳:۱۱:۵۴
۱۴۰۳/۰۸/۱۳ - ۰۹:۰۰

مقابل هوش‌مصنوعیِ هکر چه باید کرد؟

هوش‌مصنوعی می‌تواند به یک هکر قدرتمند تبدیل شود که پیشرفته‌ترین الگوریتم‌های امنیت سایبری را نیز پشت سر بگذارد؛ برای مقابله با این تهدید نوظهور چه باید کرد؟

مقابل هوش‌مصنوعیِ هکر چه باید کرد؟

به گزارش سراج24؛ «هوش‌مصنوعی می‌تواند یک هکر خطرناک باشد»؛ این یکی از جدیدترین موضوعاتی است که در حوزه امنیت سایبری مطرح شده و یک زنگ خطر  جدی را برای متخصصین این حوزه به صدا در آورده است. اصل ماجرا به ماهیت یادگیرنده مدل‌های زبانی بزرگ بر می‌گردد؛ همین مدل‌هایی که پایه ساختِ ربات‌های گفتگو مانند چت‌جی‌پی‌تی و جمنای است.  به همان اندازه که این ابزارهای هوش‌مصنوعی را می‌توان آموزش داد تا حمله‌های سایبری و هک را شناسایی و با آن مقابله کنند، می‌شود آن‌ها را از طریق آموزش و داده‌هایی که دریافت می‌کنند، به یک هکر حرفه‌ای و خطرناک تبدیل کرد؛ هکرهایی که الگوریتم‌های فعلی امنیت سایبری نتواند آن‌ها را شناسایی یا دفع کند. بنابراین هوش‌مصنوعی در حوزه امنیت سایبری، یک تیغ دولبه است که در هر دو لبه، بسیار تیز و برنده عمل می‌کند. 
این، خلاصه بخش اول مبحثی بود که در همایش امنیت سایبری Cash24 توسط وحید خدابخشی مدیر امنیت و ریسک شاپرک (شبکه الکترونیکی پرداخت کارت) ارائه شد. در بخش دوم این ارائه، به این سوال مهم پاسخ داده شده که در مقابل این تهدید بزرگ چه باید کرد و چه تدابیر فنی و حکمرانی باید در مرکز توجه متولیان قرار گیرد؟

آرام و زیرپوستی مانند سرطان
در حال حاضر با رشد انفجاری  دیجیتال‌بانک، که خدمات بانکی را به‌صورت آنی ارائه می‌دهد، اتکای مردم به سیستم پرداخت بانکی افزایش یافته است. این یک ویژگی مثبت است که در عین‌حال می‌تواند از یک زاویه، مشکل‌ساز شود؛ همانطور که همه حتما تصدیق می‌کنند ما در شبکه بانکی قطعی سراسری نداشتیم و یکی از پایدارترین سرویس‌های کشور، حوزه بانکی و پرداخت است. این طبیعتا باعث می‌شود هرگونه اختلال کوچک هم لطمات بزرگی به تجربه کاربری مردم وارد کند.
ما در این شبکه، با مجموعه‌ای از تهدیدات نوظهور مواجه هستیم؛ مجموعه‌ای از حملات جدید شامل بدافزارها، فیشینگ‌ها و «سمی کردن مدل‌های هوش مصنوعی». حال در دفاع باید چه کنیم و در آینده نزدیک با چه‌چیزی مواجه هستیم؟ 
در کنفرانس «بلک‌هت آسیا 2023» یک مقاله مهم در این خصوص ارائه شد که بررسی می‌کند که چگونه می‌توان حملاتی که توسط هوش‌مصنوعی ایجاد می‌شود را شناسایی کرد.  مهمترین محورهای این مقاله که با‌عنوان «Transforming Cybersecurity in Advanced AI Technology » ارائه شده است را در ادامه مورد بررسی قرار می‌دهیم. 
تهدیداتی که توسط هوش‌مصنوعی ایجاد می‌شوند دارای چند ویژگی خاص هستند: بسیار ضعیف، آرام آرام و زیر پوستی است؛ یعنی نشانه هایی که از خود برجای می‌گذارد،  برای انسان‌ها بسیار غیرقابل تشخیص است و قبل ازینکه عامل انسانی متوجه شود، شبکه را مثل سرطان آلوده می‌کند؛ زیرا یادگرفته که انسان در مقابل چه چیزی ضعیف است.

روت‌کیت‌های حرفه‌ای آینده
در اینجا یک مفهومی مطرح می‌شود تحت‌عنوان «روت‌کیت» (Rootkit) که به مجموعه‌ای از نرم‌افزارها یا ابزارهای مخربی گفته می‌شود که به‌منظور پنهان‌سازی فعالیت‌ها و دسترسی مخفیانه به سیستم‌های کامپیوتری طراحی شده‌اند. هدف اصلی روت‌کیت‌ها این است که حضور خود را در سیستم از دید کاربر و نرم‌افزارهای امنیتی مخفی نگه دارند تا هکر بتواند کنترل کاملی بر سیستم به دست آورد و بدون شناسایی به اطلاعات حساس دسترسی پیدا کند. به یک تعبیر عامیانه و ساده، نگهبانان بدافزارها و ابزارهای مخرب در لایه‌های بالاتر هستند. «سمی کردن مدل‌های هوش مصنوعی» روت کیت‌های آینده هستند. 
این اتفاق به این صورت می‌افتد که ما ابتدائا با هوش‌مصنوعی، سیستم خود را به ابزارهای دفاعی مجهز می‌کنیم؛ مثلا برای اعتبارسنجی وام، تشخیص تقلب،  قمار و خیلی فرایندهای دیگر. ابزارهای هوش مصنوعی برای انجام این موارد، به داده اولیه نیاز دارند؛ یعنی باید الگوریتم‌ها و مختصاتی را به آن‌ها داده شود و در واقع آموزش داده شوند تا بر اساس آن بتوانند اگر در سیستم یک تقلب اتفاق افتاد، آن را تشخیص دهند. حالا اگر این داده‌های ورودی به هوش‌مصنوعی آلوده شوند، عملا خودِ ابزارها نه‌تنها کار خودشان در تشخیص کلاهبرداری و تقلب و قمار را انجام نمی‌دهند، بلکه عملا تبدیل به روت‌کیت‌هایی می‌شوند که مانع از تشخیص این موارد می‌شوند. به همین خاطر موضوعی که اکنون در حوزه امنیت سایبری، در دنیا بسیار مطرح است، همین بحث محافظت و مقاوم‌سازی مدل‌های هوش مصنوعی در مقابل سمی‌سازی مجموعه داده‌ها است.

تشخیص زودهنگام نشانه‌ها توسط خود هوش‌مصنوعی
برای مقابله با این تهدید بزرگ، در این مقاله مفهوم «آی‌دی‌اس» یا «سیستم تشخیص نفوذ» مورد بررسی قرار گرفته است؛ به‌عنوان یک یک ابزار دفاعی که هم در مقابل حملات مرسوم می‌تواند مورد استفاده قرار بگیرد و هم از آلوده شدن مدل‌های هوش مصنوعی جلوگیری کند یا در حداقل حالت ممکن آن را تشخیص دهد. 
یک بخش دیگر به عنوان جذاب‌ترین بخش‌های حوزه امنیت سایبری، «هوش‌مصنوعی پیش‌بینی‌کننده» (Predictive AI) است. به این صورت که موقع حمله، هوش مصنوعی باید بتواند مجموعه از مجموعه ای از نشانه‌ها را زود هنگام تشخیص داد. مقاله‌ای که به صورت خاص راجع به این موضوع  صحبت کرده گریزی زده به بحث تهدیدات مانای پیشرفته که طلیعه این داستان در دنیا «استاکس‌نت» بود و بخش عمده ای از این حملات سایبری در مقابل ایران انجام شده است.
هوش مصنوعی پیش‌بینی‌کننده به‌دنبال نشانه‌های بسیار کوچک در سامانه‌هاست که با چشم دیده نمی‌شود.  حال این کار چگونه انجام می‌شود؟ اولا که هر رفتار عادی یک پروفایلی دارد و هر رفتار مخرب، قاعده خارج از آن پروفایل است. در حال حاضر این پروفایل‌ها خیلی بزرگ هستند و نمی‌توان انحراف‌های کوچیک را در آن‌ها تشخیص داد. اما در این روش، پرفایل را در هوش مصنوعی خیلی کوچک می‌کنیم تا این نشانه‌های کوچک، قابل دیدن و ردیابی باشند.

شناسایی نفوذ انسانی با یک سازوکار هوشمند
مقاله بعدی به یک موضوع مهم دیگر در این حوزه پرداخته است: استفاده از هوش مصنوعی مولد برای شناسایی رفتارهای مخرب افراد داخل سازمان.  شاید در کشور ما که نیروی انسانی یکی از چالش‌های مطرح است، با سهل انگاری‌ها و خطاهای سهوی و نفوذهایی مواجه هستیم که در خیلی از سازمان‌ها محتمل است. ممکن است افرادی که در سازمان کار می‌کنند، افراد مخرب باشند که بدون نشان دادن رفتارهای خاص از خود کارشان را انجام می‌دهند. یکی از کارهایی که در این مقاله  توصیه شده استفاده از هوش‌مصنوعی مولد برای پروفایلینگ رفتار کاربران داخلی است تا اگر در رفتار حتی کمی از قواعد استاندارد، فاصله بگیرند زودهنگام آنها را مسدود کنیم. یکی از کشورهایی که با بحران جدی نیروهای امنیت سایبری و البته تهدیدات داخلی مواجه است ایران است.

پیشگیری پیش از گسترش حمله
موضوع بعدی اینکه ما به‌واسطه هوش مصنوعی، با انواعی از فیشینگ‌ مواجه هستیم که شخصی‌سازی شده‌اند و بسیار واقعی و تقریبا غیرقابل تشخیص هستند؛ اما روش‌هایی وجود دارد که بتوان جلوی انفجار آن را گرفت. یعنی در اوایل حملات گسترده فیشینگ، جلوی حمله گسترده تر و قربانی شدن افراد بیشتر را بگیریم. تمرکز این مقاله روی این هست که به چه شکلی بتوانیم رفتار بعد از فیشینگ را بفهمیم. در واقع این حمله اتفاق افتاده و پیشروی کرده حالا به جایی رسیده که از تشخیص عبور کردیم و باید جلوی آن ایستادگی کنیم.
  این مقاله نشان می‌دهد که چطور از نشانه‌های یک قربانی برای جلوگیری از قربانی شدن دیگران استفاده کنیم. فرض کنید که یک فرد در رفتار خاصی یک تعداد پرداخت در روز یا ماه دارد؛ اگر هوش مصنوعی، یک رفتار خارج از این مدل را تشخیص دهد، با یک برچسب جدید آن را  مشخص می‌کند و شما می‌توانید اگر رفتار مشابهی را در کاربر دیگر مشاهده کردید، آی‌پی  و آدرس آن دامنه را مسدود کنید.

خلاءهایی بزرگ در بحث قانونگذاری و تنظیم‌‌گری
بحث اتوماسیون بسیار روش جذابی است برای کمبود نیروی انسانی و افزایش دقت و سرعت از آن استفاده می‌کنیم اما هوش‌مصنوعی به سامانه‌های خارج از سازمان و مجموعه داده هایی وابسته است که که ممکن است سمی باشند و مدل‌های آموزش داده شده را فریب بدهند وابسته است. بحث بعدی ما انفجار یا افزایش بحران مدل‌های آموزش‌دیده آلوده است. ما در آینده نزدیک مجموعه زیادی از مدل‌های بومی خواهیم داشت که به سرعت توسعه پیدا می‌کنند. اما ما باید حتما تطبیقی بین مدل‌های مصنوعی در امنیت و تنظیم‌گری و قانون داشته باشیم. به خاطر ضعف عمده ای که در قانون گذاری در حوزه هوش مصنوعی داریم و در دنیا هم وجود دارد اگه سیستم هوش مصنوعی خطایی کرد چه کسی پاسخگو است؟ آیا طبق روش‌های سنتی بالاترین مقام آن سازمان است یا مدیر امنیت آن؟
در ایران مشخص نیست که مسئولیت انفجار هوش مصنوعی با چه کسی است یا چه کسی تضمین می‌کند که فقط در داخل کشور قواعد و مقرراتی که سازمان هایی مثل شاپرک بانک مرکزی تدوین می‌کنند رعایت می‌شود یا خیر.   در اروپا کمتر از یک ماه است که مجموعه‌ای از قوانین ابتدایی در حوزه هوش‌مصنوعی مولد تدوین شده و در حال حاضر تمام مدل‌ها را مجبور کردند که آنها را رعایت کنند.  
متخصصانی که در این حوزه کار می‌کنند باید به سیستم سنتی قضایی کشور کمک کنند تا بتواند قانون را اعمال ‌کند. چون قانون وجود دارد ولی خاص هوش مصنوعی نیست. باید کم کم وارد مجلس شود تا تصویب شده و به یک طرح کلان تبدیل شود. من شنیده بودم که در ماه‌های اخیر  سازمان هوش مصنوعی در حال انجام این کار است و جالب است که در یک سازمان که به بحث قانون گذاری دسترسی ندارد این اتفاق افتاده است. طبیعتا باید مجموعه شورای عالی فضای مجازی یا مجلس این کار را انجام دهد.
بحث بعدی اخلاق در هوش مصنوعی است. چیزی به نام اخلاق در هوش مصنوعی وجود ندارد. البته یک سری قوانین ابتدایی وجود دارد که چه چیزهایی را پاسخ دهد یا خیر. در بحث قانون گذاری تلاش هایی اتفاق افتاده اما از سمت بدنه علمی و فنی نبوده است. در واقع تلاش‌ها از حوزه‌هایی است  که قانون‌های کلان تصویب می‌کنند و شاید دید دقیقی راجع به جزئیات این حوزه نداشته باشند. ما از همه دوستان میخواهیم در بحث‌های  هوش مصنوعی و دفاعی به ما کمک کنند تا شاید بتوانیم قواعد و الزاماتی را تدوین کنیم. حداقل برای شبکه پرداخت کشور به عنوان اولین جایی که قرار است  از این‌ها استفاده کند تا مدل‌ها بتوانند مقاوم باشند و قوانین اولیه را رعایت کنند.
چیزی که در حوزه هوش مصنوعی مولد پیش روی ما است و چشم اندازی که متصور هستیم، در کنار تلاش هایی که برای حوزه دفاعی می‌شود، همچنان افزایش تهدیدات است.  در حال حاضر برای استفاده از این سامانه‌ها استفاده از مدل‌های آماده یا طراحی مدل‌های جدید ولع زیادی وجود دارد و  بودجه‌های زیادی هم تدوین شده است. اما همه اینا هم خالی از مقررات ایران است. آن نگاه عمیق به حوزه راهبرد در حوزه هوش مصنوعی و امنیت مسأله‌ای است که کاملا مغفول مانده است.

نیاز حیاتی به سرمایه‌گذاری در حوزه امنیت هوش‌مصنوعی
تقریبا با صحبت هایی که در کنفرانس‌ها شده مشخص است که نیاز ما در آینده به حوزه هوش مصنوعی در حوزه دفاعی چیست و متأسفانه نه تنها راهبردی تا الان در دنیا هم در این حوزه تدوین نکرده‌اند بلکه همچنان ما در حوزه توسعه گیر کرده‌ایم. یعنی هوش مصنوعی در حال توسعه و بزرگ شدن است، تمام ابعاد زندگی ما را در بر می‌گیرد ولی هنوز در مقابل آن دفاع زیادی نمی‌توانیم بکنیم. ما حتی نمی‌دانیم که هوش مصنوعی تسلیحاتی می‌شود یا قرار هست به عنوان یک لبه تیز برای دفاع به کمک ما بیاید. 
قرار است چین در ۱۰ سال آینده ۱۰۰۰میلیارد دلار یا ۱تریلیون دلار  برای بحث مدل سازی تولید دیتا و جلوگیری کردن از نفوذ به مدل‌های یادگیری ماشین سرمایه گذاری کند. بحث سرمایه گذاری همانطور که در امنیت واجب است در هوش‌مصنوعی هم واجب است و متاسفانه به صورت هیجانی با آن برخورد می‌کنیم، حتما باید یک برنامه راهبردی حداقل ده ساله در این حوزه داشته باشیم من خاص حوزه امنیت سایبری هوش‌مصنوعی صحبت می‌کنم زیرا آینده از آن هوش‌مصنوعی است و اگر ما نتوانیم آن را تبدیل به ابزارهای دفاعی بکنیم حتما این ابزارها علیه ما استفاده خواهد شد.

منبع: فارس
اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۶۵
آخرین مطالب
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••