به گزارش سراج24؛ «چتجیبیتی» که رونمایی شد، هوشمصنوعی و مدل زبانی بزرگ(LLM) به شکل خیرهکنندهای در مرکز توجه دنیا قرار گرفت؛ خیلی زود بقیه غولهای فناوری هم دستبهکار شدند و رباتهای گفتگوی مشابه را معرفی کردند. کاربردهای ریزودرشت و خارقالعاده این چتباتها، همه را به تکاپو انداخت برای خدمات مختلف، از قابلیتهای آنها استفاده کنند. از تولید متن و عکس و ویدئو تا کدنویسی و انجام پروژههای نرمافزاری.
اما این میان، از یک سمت تاریکِ ماجرا غفلت شد: هوشمصنوعی همانقدر که در کدنویسی و ساختن عکس و ویدئو ماهر است، میتواند یک هکر حرفهای باشد که حتی کاربران باتجربه را هم فریب بدهد. ابعاد این موضوع حتی پیچیدهتر هم میشود و حتی میتواند الگوریتمها و سازوکارهای مقابله با تقلب و کلاهبرداری در سیستمهای مالی را نیز هدف بگیرد.
این مطلب، آخرین یافتهها در خصوص خطرات امنیتی هوشمصنوعی در حوزههای سیستمهای مالی است که توسط وحید خدابخشی، مدیر امنیت و ریسک شبکه الکترونیکی پرداخت کارت(شاپرک) در همایش Cash24 ارائه شده است و در دو بخش منتشر میشود. بخش اول به این موضوع میپردازد که هوشمصنوعی چطور میتواند بهعنوان یک شمشیر دولبه، هم بهعنوان یک ابزار برای دفاع، هشیاری و مقابله با حملات سایبری در اختیار ما قرار بگیرد و هم در لبه دیگر بهعنوان یک ابزار نفوذ در اختیار هکرها و مهاجمین سایبری قرار بگیرد. در بخش دوم اقدامات فنی و حکمرانی که برای تقابل با این موضوع باید در پیش گرفت، مورد بررسی قرار خواهد گرفت.
یک نبرد پایاپای در دفاع و حمله
هوش مصنوعی در کنار محاسبات کوانتومی و مواردی مثل ژنومیک یا فناوریهای نوین، در حال حاضر حرف اول را در بحث تکنولوژی میزند؛ از سال 2021 تا همین اکنون در سال ۲۰۲۴، ما شاهد رشد انفجاری مدلهای یادگیری ماشین و به طور خاص هوش مصنوعی مولد هستیم.
در یک نگاه کلی اگر بخواهیم به وضعیت استفاده از فناوری هوش مصنوعی نگاه کنیم باید بگوییم که هم در حوزه دفاع و هم حمله، بهصورت پایاپای در حال پیشروی هستند. یعنی در حال حاضر ابزارهایی داریم که بتوانند در مقابل حملات سایبری ما را تجهیز کنند و هم بهعنوان یک سلاح ویرانگر توسط بدخواهان و هکرها مورداستفاده قرار بگیرند و زیرساختهای ما را تحتتأثیر قرار بدهند.
بهعنوانمثال یکی از خطرات امنیتی جدی در این حوزه، آلودهسازی فرایند آموزش مدلهای هوش مصنوعی است که در حال تبدیلشدن به یک چالش جدی است؛ یعنی مهاجمان میتوانند یک مدل هوش مصنوعی را درگیر کنند و در نهایت بهصورت خیلی خاموش وارد یک سازمان شوند.
هیچچیزی رایگان نیست
بحث «حمله زنجیره تامین» بسیار موضوع مهمی است و در حال حاضر شاید یکی از معضلاتی که در کشور ما وجود دارد و هیچ فکری هم برای آن نکردهایم، همین باشد. یکی از نمونههای مهم آن رشد فزاینده بانکداری دیجیتال است که استفاده از زیرساختهای آماده منبعباز مانند API در این ساختار، نگرانکننده است؛ ما به طور گسترده و هیجانزده، در حال هوشمندکردن ابزارهای و دادهها و زنجیره تأمین خود هستیم و فکر میکنیم ابزارهای که در دسترس داریم از منابع معتبر تأمین میشود درحالیکه اینگونه نیست و هیچچیزی رایگان نیست. به این خاطر که تعداد زیادی از اینها بدون اینکه متوجه باشیم بهصورت خاموش جاسوسی ما را انجام میدهند و خود را برای روزهایی آماده میکنند که قرار است ما دچار حملات گستردهتر شویم.
سرچشمه چگونه آلوده میشود؟
در کنفرانس «بلکهت آسیا ۲۰۲۳» چند نمونه از این حملات مثال زده شد که یکی از آنها در سال ۲۰۲۲ و اوایل ۲۰۲۳ در چین انجام شد.
ابتدا به سازوکار تشخیص تقلب در سیستم بانکی نگاهی بیندازیم. مدلهای یادگیری ماشین (Machine Learning) به طور گسترده برای تشخیص تقلب و کلاهبرداری در سیستم مالی مورداستفاده قرار میگیرد. ابزاری کدنویسی میشود که قرار است رفتارهای عادی را از غیرعادی که احتمالا حمله هستند تفکیک کند.
این کار به این صورت انجام میشود که انبوه اطلاعاتی که تا الان جمعآوری شده را برچسب میزنیم که کدام رفتار در تراکنشهای بانکی، درست و کدام غلط است و مدلها با این دادهها آموزش میبینند. پس از آن هر ورودی به مدل بدهید بر اساس یادگیری، شباهتسنجی و شناخت الگوهایی که تا الان انجام داده یک برچسب قرمز یا سبز تحویل میدهد.
در حمله چین، افرادی تحت عنوان ارتش سایبری، تعدادی از مدلهایی که قرار بوده در سیستم مالی چین و آمریکا تقلب را شناسایی کنند را مورد تمرکز قرار دادند. این هکرها سعی کردند منبع این دادهها را سمی کنند. بهعنوانمثال دادههای موجود در گیتهاب را به این صورت آلوده کردند که بهصورت خیلی ظریف، رفتار درست را بهعنوان رفتار غلط برچسب زدند و با توجه به وجود انبوهی از اطلاعات، انسان نمیتوانست این موضوع تشخیص دهد.
هدف اصلی این عملیات، وقوع یک فلج سراسری در حوزه مالی بود و در نتیجه آن بخش مربوط تشخیص تقلب در برخی از بانکهای بزرگ دنیا مورد حمله قرار گرفت و طی ۶ ماه، تمام خروجیهای آن آلوده شد. وزارت دفاع چین البته اعلام کرد این یک آزمایش و مانور بوده است.
این سیستم جوری عمل کرده که حملات خاص و الگوهای خاصی از تقلب را عبور داده و برچسب مثبت به آن زده است. این حمله باعث شد که مجموعه کل دادههایی که برای آموزش استفاده شده را کنار بگذارند و دوباره مجدد کار آموزش را انجام دهند.
زبان مادری هوشمصنوعی، دادههای ماست
ما درگذشته هوش مصنوعی را به عنوان یک واژه کلی داشتیم که یادگیری ماشین یک بخش آن بود بخشهای دیگری هم داشت. از سال ۲۰۰۶ که مفهوم یادگیری عمیق توسعه پیدا کرد و لایههای بیشتری در شبکهها ایجاد شدند دست ما خیلی باز شد. در سال ۲۰۰۶ بهخاطر فناوریهای خاصی که در حوزه پردازشگر ایجاد شد و شرکت اینتل توانست معماری موازی را توسعه دهد قدرت محاسباتی ما بهشدت افزایش یافت و ما میتوانستیم مسائل پیچیدهتر را حل کنیم و نهایتا منجر شد به یادگیری عمیق که گوگل اولینبار استفاده کرد.
بعد از اینکه یادگیری عمیق توسعه پیدا کرد مفهوم هوشمصنوعی مولد شاید در سال ۲۰۱۴ مطرح شد.
این یک خطر بزرگ است
هوش مصنوعی مولد (Generative AI) همانطور که از اسم آن مشخص است، مولد است؛ یعنی میتواند رفتاری را تقلید کند و بسیار شبیه به آن رفتار را انجام دهد. در واقع چتجیپیتی و تمام ابزارهایی که در حال حاضر میبینید که از جنس هوش مصنوعی مولد هستند ابزارهایی هستند که تعداد زیادی رفتارهای برچسب زده شده از انسان، کتابها، ویدئوها و صداها جمعآوری کردند و نهایتا آنها را تقلید میکنند. در واقع زبان مادری هوشمصنوعی مولد، هر آن چیزی هست که ما در اینترنت قرار دادهایم.
به تصور من شاید اولین اتفاقی که در حوزه این تکنولوژی افتاد، تهاجم بود و ما یک حجم فزایندهای در خصوص فیشینگ، بدافزارهای جدید و تقلید رفتارهای پیچیده بدافزار را داشتیم.
کاری که هوش مصنوعی مولد در حوزه تهاجم انجام میدهد هم بحث بدافزار است، هم فیشینگ.
قبلا در فیشینگ، یک ایمیل سفارشیشده برای افراد زیادی ارسال میشد؛ اما ما در حال حاضر مواجه شدیم با مجموعهای از فیشینگها که بهصورت هدفمند مدیران ارشد صنایع مختلف و مخصوص صنایع مالی را هدف قرار میدهد. ویس، ویدئو و عکس تمام افرادی که در اینجا سخنرانی کردند در اینترنت است و ساختن یک آواتار که بتواند متنی شبیه صحبتکردن این فرد یا صدای آنها را تولید کند بسیار آسان است. بهعنوانمثال تصور کنید در حال حاضر همینجا نشستهاید و یک پیام در واتساپ برای شما بیاید که مثلا درخواست پول دارد و وقتی پیام صوتی را هم گوش میکنید، صدای همین فرد است.
از طرفی چتجیپیتی میتواند کدهای مختلف تولید و آسیبپذیری آن را بررسی و شبیه کدهای آلوده را برای شما تولید کند. در یک تحقیق مجموعه زیادی از بدافزارها به شکلهای کاملا خلاقانه توسط هوشمصنوعی تولید شده بهطوری که حتی به نمونه اولیهای که به آن داده شده، شباهت چندانی نداشت. این خیلی خطر بزرگی است یعنی شما با مجموعهای از ابزارهای جاسوسی مواجه میشوید که حملات منع سرویس و انواع حملات سایبری دیگر بر اساس آنها اتفاق میافتد.