اوقات شرعی تهران
اذان صبح ۰۴:۵۹:۴۸
اذان ظهر ۱۱:۴۸:۵۵
اذان مغرب ۱۷:۲۸:۳۰
طلوع آفتاب ۰۶:۲۵:۳۷
غروب آفتاب ۱۷:۰۹:۴۳
نیمه شب ۲۳:۰۵:۱۵
۱۴۰۳/۰۸/۰۸ - ۰۹:۳۴

ضرورت‌ اقدام سریع دولت‌ها برای تنظیم‌گری در هوش مصنوعی

با توجه به‌سرعت گرفتن استفاده از ابزارهای هوش مصنوعی در جوامع لازم است برای کاهش خطرات ناشی از آن دولت‌ها نظام تنظیم‌گری و قانون‌گذاری را برای آن با سرعت بیشتری رد پیش گیرند.

ضرورت‌ اقدام سریع دولت‌ها برای تنظیم‌گری در هوش مصنوعی

به گزارش سراج24؛ استفاده از ابزارهای مبتنی بر هوش مصنوعی در حال تبدیل شدن به بخش بزرگی از زندگی روزانه جوامع اجتماعی می‌شود. در همین راستا دولت‌ها و سیاست‌گذاران تلاش می‌کنند تا با یک تنظیم‌گری مبتنی بر روند رشد هوش مصنوعی در جوامع را ممنوع، محدود و شفاف کنند تا جایی که نهادهای نظارتی بتوانند در مواقع لزوم از ابزارهای قانونی برای اعمال اقدامات سخت‌گیرانه در زمینه حفاظت از داده‌های شخصی و همچنین تضمین استفاده اخلاقی از داده‌ها بهره ببرند.
حسین طالب مدیر مرکز نوآوری ایران های‌تک در گفت‌وگو با فارس در خصوص لزوم تنظیم‌گری در این حوزه، اظهار کرد: این روزها شاهد هستیم که شرکت‌های بزرگ فعال در حوزه هوش مصنوعی مکلف شد‌ه‌اند تا تعهداتی به دولت فدرال در آمریکا بدهند زیرا باتوجه‌به گسترش هوش مصنوعی، ریسک‌ها و خطرات حاصل از آن نیز برای بشر روندی رو به رشد داشته است.
وی افزود: اگر بخواهیم به صورت خلاصه بیان کنیم، هوش مصنوعی یک فناوری نوظهور و تحول آفرین بوده و از منظر تاثیراتی که بر زندگی بشر خواهد گذاشت بسیار گسترده است اما در عین حال که استفاده درست از این ظرفیت‌های هوش مصنوعی می‌تواند در خدمت رفاه و امنیت بشر باشد، اگر این فناوری به شکل غیراخلاقی و نامتعارف و یا غیراصولی پیش برود قطعاً خطراتی برای بشر خواهد داشت.
طالب ادامه داد: طی سال‌های اخیر و با گسترش هوش مصنوعی یک سری اتفاقات و حوادث رخ داده که به نحوی تکان‌دهنده بوده است. اگر بخواهم مثال بزنم و مصداقی عرض کنم، در سال 2016 یک خودروی الکتریکی ساخت شرکت تسلا که تحت ناوبری خودران قرار داشت با یک تریلر تصادف کرد و دلیلی که برای تصادف بیان شد این بود که سیستم هوش مصنوعی و پردازش تصویر این سیستم خودرو نتوانسته بین آسمان روشن و تریلی تمایز قائل شود. در این جا سوال اصلی که پیش می‌آید این است که در حوزه مسئولیت و در بحث تنظیم‌گری چه کسی مسئول است، آیا راننده مسئول است یا شرکت سازنده خودرو؟ و این سوالات کلیدی در حقیقت همان چالشی هست که ما در بحث تنظیم‌گری با آن مواجه هستیم.
مدیر مرکز نوآوری ایران های‌تک گفت: ازاین‌جهت عرض می‌کنم که بسیاری از مباحثی که در هوش مصنوعی مطرح می‌شود نیاز به تنظیم‌گری دارد و نیاز به این دارد که مسئولیت‌ها به‌درستی تفکیک و مشخص شود و روندهای قانونی لحاظ شود تا درصورتی‌که خسارتی وارد شد امکان جبران خسارات از مجاری قانونی وجود داشته باشد.
وی تصریح کرد: یکی از نمونه‌های دیگر در استفاده از هوش مصنوعی سیستم استخدام در شرکت آمازون است. این شرکت در سال 2017 یک سیستم استخدام خودکار راه‌اندازی کرد و جالب است چون برای آموزش داده این سیستم استخدامی، داده‌های آقایان بیش از داده‌های خانم‌ها بود، سیستم دچار بایاس (پیش داوری) شده بود و منجر به این شده بود که سیستم استخدام خودکار علیه خانم‌ها تبعیض قائل شود. چرا؟ چون داده‌هایی که با آن آموزش دیده بود عمدتاً داده‌های مربوط به آقایان بود و این سیستم به اشتباه این جور استنباط کرده بود که آقایان توانایی و لیاقت بیشتری دارند و یا کارایی بالاتری نسبت به خانم‌ها دارند. خب در این حوزه اگر به فردی خسارتی وارد شود چه کسی مسئول است، آیا سیستم هوش مصنوعی مسئول خواهد بود یا فردی که مسئول طراحی سیستم هوش مصنوعی بوده است؟
طالب ادامه داد: اگر قرار باشد به نمونه‌های این حوزه بپردازیم موارد بسیاری در دنیا وجود دارد که لزوم تنظیم‌گری حوزه هوش مصنوعی را نشان می‌دهد. مثلا در 2018  یک بیمار در بریتانیا در اثر عمل قلب رباتیک جان خود را از دست داد، او در سال 2015 تحت عمل قرار گرفته بود و آنچه پزشکان اعلام کردند این بود که احتمال فوت این فرد 2درصد است، اما وی پس از 3 سال بر اثر عوارض عمل جراحی جان خود را از دست داد. در نهایت سیستم هوش مصنوعی که عامل کنترل ربات بود مقصر شناخته شد. در این جا این موضوع مطرح می‌شود که مسئول واقعی چه کسی است و باز هم نقش مهم رگولاتوری و تنظیم‌گری هوش مصنوعی به چشم می‌آید.
مدیر مرکز نوآوری ایران های‌تک تاکید کرد: طی سال‌های 2018 تا به امروز نمونه‌های زیادی از حوادث مرتبط با هوش مصنوعی پیش آمده که گاهی منجر به تعطیلی یک بخش از کار شده است. مثلاً در سال 2018 یک خودروی خودران شرکت اوبر باعث مرگ یک عابر شد که این شرکت وادار به تعطیلی بخش خودروهای خودران شد. یا در سال 2021 نیز یک فرد سیاه پوست را پلیس آمریکا به جرم تیراندازی بازداشت کرد و یک سال آن فرد در حبس بود و بعد از یک سال تبرئه شد. تحقیقات نشان می‌داد که سیستمی که پلیس برای کشف جرم استفاده کرده یک سیستم مبتنی بر هوش مصنوعی بوده و سیستم هوش مصنوعی به‌اشتباه این فرد را شناسایی کرده به عنوان فرد تیرانداز ولی پلیس به دلیل اعتماد بیش از حدی که به سیستم هوش مصنوعی داشت این فرد را دستگیر کرده و حالا فرض کنید در چنین اتفاقاتی که قطعا در آینده بیشتر هم خواهد شد باید دید جبران خسارت این فرد را چه کسی خواهد داد.
وی همچنین افزود: نمونه دیگر در سال 2022 اتفاق افتاد، زمانی که یک سیستم تشخیص چهره مبتنی بر هوش مصنوعی که در اختیار پلیس آمریکا بود یک زن سیاه پوست که در ماه هشتم بارداری بود را به‌اشتباه به جرم دزدی خودرو دستگیر کرد درحالی‌که همه شواهد حاکی از این بود که چنین فردی نمی‌تواند سارق باشد، اما سیستم هوش مصنوعی این را به اشتباه مجرم تشخیص داده بود.
مدیر مرکز نوآوری ایران های‌تک اظهار کرد: از طرف دیگر، امروزه با گسترش هوش مصنوعی سرقت‌هایی که از افراد می‌شود و تقلید صدایی که سیستم هوش مصنوعی انجام می‌دهد به شدت گسترش پیدا کرده است. اگر نمونه بخواهیم بیان کنیم، بر اساس آمارها فقط در سال 2022 حدود 36 هزار مورد کلاهبرداری تلفنی در آمریکا انجام شد و بیش از 11 میلیون دلار  از این افراد سرقت شد. در یک مورد که با استفاده از هوش مصنوعی این اتفاق افتاده، زوجی بعد از اینکه صدای فرزند خودشان را شنیدند چیزی حدود 15 هزار دلار رمزارز را برای یک کلاهبردار جابه‌جا کردند درحالی‌که آن صدا، صدای پسرشان نبوده بلکه صدایی بوده که سیستم هوش مصنوعی تقلید کرده بود و توانسته بود آن‌قدر طبیعی رفتار کند که پدر و مادر فرد هم تشخیص ندهند که این صدای واقعی پسرشان نیست. این چنین اتفاقاتی خطرات زیادی برای جامعه دارد و در آینده به‌احتمال زیاد این دسته از حوادث بسیار زیاد خواهد شد.
طالب ادامه داد: در ژانویه همین امسال (2024) تصاویر مستهجن از یک خواننده مشهور آمریکایی به نام تیلور سوئیفت منتشر شد که این تصاویر توسط جعل عمیق یا همان دیپ‌فیک ساخته شده بود، یعنی از هوش مصنوعی استفاده شده بود برای اینکه بتوانند آبروی یک چهره را ببرند و این یکی از مهم‌ترین چالش‌ها در دنیای امروز است. به عبارتی هوش مصنوعی این قابلیت را دارد که هم برای کلاهبرداری و هم برای سوءاستفاده از افراد، اخاذی و دیگر جرائم به کار گرفته شود و به همین جهت بحث تنظیم‌گری هوش مصنوعی بسیار اهمیت دارد.
وی افزود: در نمونه دیگر، در فوریه 2024 در یک ویدئوکنفرانس و با استفاده از فناوری جعل عمیق، همه افراد حاضر در ویدئوکنفرانس با سیستم هوش مصنوعی شبیه‌سازی شده بودند، به جز کارمندی که در بخش مالی قرار بود پول را جابه‌جا کند و با استفاده از این کلاهبرداری پیچیده ای که صورت گرفت حدود 26  میلیون دلار  جابه‌جا شد.  در این کنفرانس مدیر ارشد شرکت که با استفاده از فناوری هوش مصنوعی چهره و صدای او بازسازی شده بود به کارمند دستور داده بود تا پول را جابه‌جا کند و کارمند هم با تصور اینکه این دستور واقعی است این کار را انجام داده بود. مسلماً ازاین‌دست حوادث در آینده خیلی بیشتر تکرار خواهد شد.
طالب تاکید کرد: اهمیت تنظیم گری هوش مصنوعی به این معنا که نهادهای حاکمیتی به بحث تنظیم مقررات و قوانین حاکم بر کاربران، توسعه دهندگان و تولید کنندگان سیستم‌های هوش مصنوعی وضع می‌کنند پررنگ خواهد شد. در این راستا اتحادیه اروپا جزء پیشگامان بحث تنظیم‌گری هوش مصنوعی است. 
وی افزود: در آوریل سال 2021 کمیسیون اروپا اولین چارچوب قانونی اتحادیه اروپا را برای هوش مصنوعی پیشنهاد داد و  در مارس 2024 پارلمان اروپا قانون هوش مصنوعی رو با اکثریت آرا تصویب کرد و مکانیزمی هم که در پیش گرفته بر اساس سطوح مختلف ریسک است، یعنی بر اساس سطوح مختلف ریسک تنظیم‌گری انجام می‌دهد. همچنین دولت آمریکا در اکتبر 2023 مصوبات کلیدی باهدف حمایت از مصرف‌کنندگان، کارگران و گروه‌های اقلیتی در مقابل خطرات هوش مصنوعی داشت. 
مدیر مرکز نوآوری ایران های‌تک ادامه داد: یکی دیگر از تحولات مهم بحث پیش‌نویس قانون هوش مصنوعی جمهوری خلق چین بود که در مارس 2024  تنظیم شد و در حال بررسی و طی مراحل قانونی است. همچنین در مارس 2024 بود که سازمان ملل متحد اولین قطعنامه در مورد هوش مصنوعی را با اتفاق آرا تصویب کرد، در این قطعنامه بر موضوع حفاظت از داده‌های شخصی، نظارت بر هوش مصنوعی و آشنایی از خطرات و حفاظت از حقوق بشر تأکید شد.
طالب گفت: بحث تنظیم‌گری هوش مصنوعی ریشه در خطرات آن دارد و این خطرات باید در نظر گرفته شود تا هوش مصنوعی بتواند در یک بستر مناسب رشد کند به‌طوری که خدماتی که به بشر ارائه می‌کند با کمترین خطر و با کمترین ریسک باشد. 
وی افزود: در بحث تنظیم گری هوش مصنوعی بحث مسئولیت‌ها بسیار مهم است، ما در بحث مسئولیت‌ها انواع مسئولیت‌ها داریم: مسئولیت مدنی، مسئولیت اخلاقی، مسئولیت اداری، مسئولیت کیفری، مسئولیت بین المللی و..... که هر کدام از این مسئولیت‌ها نیاز دارند در مورد سیستم هوش مصنوعی موردتوجه قرار بگیرند و قوانین و مقررات مناسب برای آنها وضع شود.
طالب تصریح کرد: در قوانین مدنی و کیفری جمهوری اسلامی اخلاق حسنه جایگاه ویژه‌ای دارد و در نتیجه باید در حوزه هوش مصنوع نیز مسئولیت اخلاقی در نظر گرفته شود به این معنا که اگر یک سیستم هوش مصنوعی یا یک پلتفرم هوش مصنوعی فضایی باشد برای اینکه اخلاق حسنه نقض شود یا ابزاری فراهم کند که مغایر بااخلاق حسنه باشد عملا قوانین ما و قانون‌گذار ما می‌تواند به‌واسطه این قانون ( قوانینی مثل ماده 975 قانون مدنی، ماده 6 قانون آیین دادرسی، ماده 960 قانون مدنی یا همچنین ماده 1295 قانون مدنی) بحث اخلاق حسنه و پایبندی سیستم‌های هوش مصنوعی و پلتفرم‌های هوش مصنوعی و اخلاق حسنه را در نظر دارند و عملاً ما با استفاده از همین 4 ماده قانونی که در قوانین کشور داریم می‌توانیم در بحث اخلاق مدار بودن سیستم‌ها و پلتفرم‌های هوش مصنوعی به قولی تنظیم‌گری خود را داشته باشیم و بر روی آن اتفاق نظر مناسبی وجود دارد به این معنا که از نظر اکثر حقوق‌دانان بزرگ ایران مبنای اخلاق حسنه بر اساس آموزه‌های دینی بوده و دین ما تعیین کننده معیار و مبنای اخلاق حسنه است.
طالب تاکید کرد: اصول اخلاق حسنه در سیستم‌های هوش مصنوعی به چه صورت تعریف می‌شود یک بحث مفصل است، اما اگر بخواهم به‌صورت خلاصه عرض کنم بحث اینکه سیستم هوش مصنوعی شفاف و توضیح‌پذیر باشد، اینکه سوگیری و یا به اصطلاح بایاس نداشته باشد، حفظ حریم خصوصی را انجام دهد، قابلیت ردیابی داشته باشد، مکانیزم ارزیابی جریمه‌ها در آن لحاظ شده باشد، استانداردهای ایمنی و سازگاری با محیط‌زیست و دستورالعمل‌های اخلاقی را رعایت کند که همه این موارد جزء محورهای اصلی مسئولیت اخلاقی به‌حساب می‌آید.
وی افزود: در بحث مسئولیت مدنی سیستم‌های هوش مصنوعی همان طور که عرض کردم، مثلاً سیستم هوش مصنوعی خودروهای خودران می‌توانند آسیب‌زا هم باشند، یعنی اگر یک فردی بواسطه تصادف با یک خودروی کنترل‌شده توسط هوش مصنوعی دچار آسیب یا فوت شد ضرورت دارد که قانون‌گذار مکانیزم‌ها و تمهیدات لازم را برای این شرایط در نظر بگیرد، در همین راستا نیز قوانین بسیار زیادی در قانون مدنی ایران داریم که می‌توانند برای تنظیم‌گری سیستم هوش مصنوعی هم به کار گرفته شوند ( مثلاً ماده 221 قانون مدنی، ماده 227 و 229 قانون مدنی و ماده 335 قانون مدنی) بحث خسارت‌های ناشی از عملکرد نامناسب سیستم‌های هوش مصنوعی را پوشش می‌دهند. همچنین ماده 13 قانون جرایم رایانه‌ای و ماده 14 و 16 همین قانون بحث خسارت‌های مالی و جانی ناشی از سیستم هوش مصنوعی را می‌توانند پوشش دهند که نشان می‌دهد در قانون ما کمبود زیادی در این زمینه وجود ندارد.
مدیر مرکز نوآوری ایران های‌تک اظهار کرد: تنها بحثی که در این میان وجود دارد این است که میزان مسئولیت سیستم هوش مصنوعی به چه صورتی تعیین شود، تفاوت عمده سیستم هوش مصنوعی با سیستم‌های عادی این است که سیستم‌های هوش مصنوعی با نام مالک خود شناخته می‌شوند، اما قوانینی که ما در کشور داریم اصولاً برای انسان‌ها نوشته شده است. یعنی اگر انسان‌ها مرتکب جرمی یا خسارت به دیگران شوند مجازات می‌شود، اما برای سیستم‌های هوش مصنوعی ماهیت مستقلی نمی‌توان قائل بود و نمی‌توانیم او را مجازات کنیم. 
وی در پایان خاطرنشان کرد: حالا سوالی که مطرح می‌شود این است که چه کسی مسئول است؟ مالک سیستم هوش مصنوعی، کاربر و یا توسعه دهنده سیستم هوش مصنوعی مسئول این اتفاق هستند و اساساً اگر اتفاقی افتاد که ناشی از عملکرد نامناسب سیستم هوش مصنوعی بود، مسئولیت جبران خسارت‌ها با چه کسی است؟ اینها مواردی است که در قانون خیلی در مورد آنها صحبت نشده یا اگر دقیق‌تر بخواهم بگویم یک خلاء قانونی در این زمینه وجود دارد و نیاز است که تنظیم‌گری در این بخش صورت گیرد و برای این دستاورد جدید بشر قوانین و مقررات روشن، شفاف و محکمی تدوین شود تا ان‌شاءالله گسترش استفاده از هوش مصنوعی در کشور ما با مشکلی مواجه نشود و درعین‌حال که خدمات هوش مصنوعی در حال گسترش به جامعه است، ریسک‌های آن هم تا حد امکان کاهش پیدا کند.

منبع: فارس
اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۶۰
آخرین مطالب
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••