به گزارش سراج24؛ دکتر «حسن خادم الحسینی» کارشناس اقتصادی در خصوص امنیت بینالمللی و حکمرانی هوش مصنوعی: فرصتها، تهدیدها و آینده نظم جهانی، نوشت:
هوش مصنوعی در حال تبدیلشدن به یکی از مهمترین عوامل شکلدهنده امنیت جهانی، رقابت قدرتها و قواعد حکمرانی بینالمللی است. این فناوری علاوه بر فرصتهای گسترده اقتصادی و علمی، خطراتی همچون اطلاعات نادرست، نابرابری فناورانه، سلاحهای خودمختار و حملات سایبری مبتنی بر AI را پدید آورده است. در این مقاله ضمن بررسی چالشهای امنیتی، وضعیت کنونی حکمرانی، رقابت ژئوپولیتیکی قدرتها و مسیرهای آینده، پیشنهادهایی برای تنظیمگری و همکاری بینالمللی ارائه میشود.
مقدمه
جهان وارد عصری شده که در آن هوش مصنوعی یک ابزار عادی تکنولوژیک نیست؛ بلکه یک زیرساخت راهبردی است.
کشورها برای پیشتازی در این عرصه نه تنها به دنبال پیشرفت اقتصادیاند، بلکه آن را یک مؤلفه قدرت ملی، امنیت ملی و نفوذ بینالمللی میدانند.
این تحولات باعث شده که حکمرانی هوش مصنوعی (AI Governance) به اصلیترین موضوع امنیت بینالمللی در دهه ۲۰۲۰ و ۲۰۳۰ تبدیل شود.
۱. تهدیدهای امنیتی مرتبط با هوش مصنوعی
۱–۱. تولید و انتشار اطلاعات نادرست (AI-enabled Disinformation)
مدلهای مولد میتوانند حجم عظیمی از محتواهای جعلی شامل متن، تصویر و ویدئو تولید کنند که:
• بر انتخابات اثر میگذارد،
• اعتماد عمومی به نهادها را کاهش میدهد،
• تنشهای اجتماعی را تشدید میکند.
در نتیجه، حمله به حقیقت یکی از مهمترین تهدیدات امنیتی عصر دیجیتال است.
۱–۲. حملات سایبری تقویتشده با هوش مصنوعی
AI قدرت مهاجمان را چند برابر میکند:
• تولید بدافزارهای هوشمند
• فیشینگ کاملاً شخصیسازیشده
• تحلیل حفرههای امنیتی با سرعت بالا
• ساخت ابزارهای خودیادگیر برای عبور از دفاعها
این موضوع زیرساختهای حیاتی مانند انرژی، حملونقل، بانکداری و دولت الکترونیک را در معرض خطر قرار میدهد.
۱–۳. سلاحهای خودمختار و جنگافزارهای هوشمند
یکی از نگرانیهای سازمانهای بینالمللی، سلاحهای بدون دخالت انسان است.
این سلاحها میتوانند بدون کنترل اخلاقی تصمیمگیری کنند و تعادل قوا را تغییر دهند.
۱–۴. عدمتقارن فناورانه میان کشورها
توانایی فناورانه نامتقارن باعث میشود:
• قدرتهای بزرگ بر توسعه AI مسلط شوند
• کشورهای ضعیف به مصرفکننده صرف تبدیل گردند
• شکافهای اقتصادی و امنیتی عمیقتر شود
این مسئله یک تهدید ساختاری برای عدالت و امنیت جهانی محسوب میشود.
۲. رقابت ژئوپولیتیکی بر سر هوش مصنوعی
هوش مصنوعی تبدیل به میدان رقابت میان سه قطب اصلی شده:
۲–۱. ایالات متحده
تمرکز بر نوآوری، شرکتهای بزرگ و رهبری فناوری.
۲–۲. چین
سرمایهگذاری عظیم دولتی، دادههای گسترده و سیاستگذاری هماهنگ.
۲–۳. اروپا
پیشگام در تنظیمگری، استانداردهای اخلاقی و امنیت انسانی.
این رقابت چرخهای ایجاد کرده که برخی تحلیلگران از آن با عنوان «جنگ سرد هوش مصنوعی» یاد میکنند.
۳. وضعیت کنونی حکمرانی بینالمللی هوش مصنوعی
هیچ رژیم جهانی الزامآوری برای AI وجود ندارد، اما چند روند مهم دیده میشود:
۳–۱. تلاش برای استانداردهای جهانی
سازمانهایی مثل OECD، ISO و IEEE چارچوبهایی درباره:
• شفافیت
• ایمنی
• اخلاق
• امنیت دادهها
ارائه میکنند، ولی الزامآور نیستند.
۳–۲. قوانین منطقهای
اروپا با قانون AI Act سختترین چارچوب نظارتی را ایجاد کرده.
آمریکا بیشتر به مدل «خودتنظیمی» شرکتها تکیه دارد.
چین رویکرد دولتمحور با کنترل شدید دادهها و الگوریتمها را پیش گرفته.
۳–۳. توافقات داوطلبانه شرکتهای بزرگ فناوری
شرکتهایی مثل Google، OpenAI و Microsoft تعهدات داوطلبانه درباره ایمنی مدلها ارائه میکنند، اما نبود نظارت بینالمللی باعث نگرانی است.
۴. چالشهای اصلی حکمرانی بینالمللی AI
۴–۱. سرعت رشد فناوری بیشتر از سرعت قانونگذاری است
قانونگذاران نمیتوانند بهسرعت پیشرفت مدلهای جدید واکنش نشان دهند.
۴–۲. تعارض منافع کشورها
دولتها قوانین AI را نه فقط براساس اخلاق، بلکه براساس منافع امنیتی و اقتصادی خود تنظیم میکنند.
۴–۳. عدم شفافیت الگوریتمها
در بسیاری از مدلهای پیشرفته، حتی سازندگان نیز نمیدانند تصمیمات دقیقاً چگونه اتخاذ میشود.
۴–۴. نبود یک نهاد جهانی واحد
مشابه آژانس انرژی اتمی برای انرژی هستهای، در حوزه AI هنوز سازمان بینالمللی ناظر وجود ندارد.
۵. راهکارها و مسیرهای آینده برای حکمرانی AI
۵–۱. ایجاد «سازمان جهانی هوش مصنوعی»
یک نهاد مستقل بینالمللی برای:
• نظارت بر مدلهای خطرناک
• استانداردهای امنیتی
• بررسی سوءاستفادهها
• بهاشتراکگذاری دادههای حیاتی
۵–۲. همکاری قدرتها در امنیت سایبری مبتنی بر AI
ایجاد پیمانهایی مشابه معاهدههای کنترل تسلیحات.
۵–۳. چارچوبهای شفافیت برای مدلهای قدرتمند
انتشار بخشی از اطلاعات مربوط به دادهها، ارزیابی ریسک و تستهای ایمنی.
۵–۴. قوانین سختگیرانه برای سلاحهای خودمختار
ضرورت ایجاد ممنوعیت یا محدودیت جهانی.
۵–۵. حمایت از کشورهای در حال توسعه
تا شکاف فناورانه و وابستگی خطرناک ایجاد نشود.
نتیجهگیری
هوش مصنوعی در حال بازتعریف مفهوم قدرت، امنیت و سیاست جهانی است.
این فناوری همزمان که فرصتهای بینظیری ایجاد میکند، تهدیدهای عمیق و پیچیدهای برای امنیت بینالمللی به همراه دارد.
دنیای آینده به میزان توانایی کشورها در همکاری، تنظیمگری هوشمند، و ساخت یک نظم بینالمللی شفاف و منصفانه بستگی دارد.
حکمرانی هوش مصنوعی فقط یک موضوع فناورانه نیست؛ آزمونی برای بلوغ سیاسی، اخلاقی و امنیتی بشر در قرن ۲۱ است.



