ممنوعیت‌های هوش مصنوعی در قانون اتحادیه اروپا؛ تنش با آمریکا در حوزه فناوری بیشتر می‌شود

خبرگزاری مهر پنج شنبه 18 بهمن 1403 - 19:58
قانون هوش مصنوعی اتحادیه اروپا وارد مرحله اجرایی شد. این قانون از سوی بسیاری از کارشناسان، به عنوان یک نقطه عطف راهبردی در مسیر حکمرانی فناوری‌های نوین و هوشمند تلقی می‌شود.

به گزارش خبرنگار مهر؛ قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)، از تاریخ سوم فوریه ۲۰۲۵ وارد مرحله اجرایی شد.

این قانون از سوی بسیاری از کارشناسان به عنوان یک نقطه عطف راهبردی در مسیر حکمرانی فناوری‌های نوین و هوشمند تلقی می‌شود.

متخصصان بر این باورند که اتحادیه اروپا در قانون جامع هوش مصنوعی خود با تکیه بر اصول بنیادین حکمرانی داده‌محور، هدفی دوگانه را دنبال می‌کند:

  • نخست، تسریع روند نوآوری‌های فناورانه از طریق ایجاد شفافیت و الزامات عملیاتی مشخص
  • دوم، ارتقای ملاحظات اخلاقی و امنیتی در بستر فناوری

بررسی‌های صورت گرفته نشان می‌دهد که این چارچوب نظارتی فراگیر، زمینه‌ای برای کنترل و نظارت جامع بر استفاده از هوش مصنوعی در بخش‌های مختلف صنعتی، اجتماعی و دولتی فراهم کرده و به دنبال کاهش مخاطرات بالقوه در کنار حمایت از پیشرفت پایدار است. این در حالی است که به نظر می‌رسد اجرای الزامات تعیین شده در این سند حقوقی، تبعات و تأثیرات بنیادین بر آینده هوش مصنوعی خواهد داشت. مهر در این نوشتار کوتاه به مرور برخی از دیدگاه‌های مطرح شده در این زمینه می‌پردازد.

سیستم طبقه‌بندی مبتنی بر ریسک و چالش‌های نظارتی

این قانون با اتخاذ رویکردی مبتنی بر ارزیابی مخاطرات، کاربردهای هوش مصنوعی را به سه دسته کلیدی تفکیک می‌کند:

  • کاربردهای ممنوعه
  • کاربردهای پرخطر
  • کاربردهای کم‌خطر

دسته‌بندی مذکور به منظور مدیریت ریسک‌های مرتبط با فناوری و حفاظت از منافع عمومی طراحی شده است. بر همین اساس، کاربردهای ممنوعه شامل سیستم‌هایی هستند که به دلیل نقض آشکار حقوق اساسی انسان‌ها، مانند نظارت بی‌رویه یا دست‌کاری شناختی، به‌طور کامل ممنوع اعلام شده‌اند. بر همین اساس، تمامی سیستم‌های هوش مصنوعی که تهدیدی آشکار برای ایمنی، معیشت و حقوق افراد محسوب می‌شوند، ممنوع هستند. قانون هوش مصنوعی (AI Act) هشت رویه را به‌عنوان اقدامات ممنوعه تعریف کرده است که عبارت‌اند از:

  • دست‌کاری و فریب مبتنی بر هوش مصنوعی
  • به‌کارگیری از هوش مصنوعی در راستای سوءاستفاده از آسیب‌پذیری‌ها
  • سیستم‌های امتیازدهی اجتماعی (Social Scoring)
  • ارزیابی یا پیش‌بینی ریسک ارتکاب جرم توسط افراد
  • استخراج اطلاعات (Scraping) بدون هدف مشخص از اینترنت یا داده‌های دوربین‌های مدار بسته به منظور ایجاد یا گسترش پایگاه‌های داده تشخیص چهره
  • شناسایی احساسات در محیط‌های کاری و مؤسسات آموزشی
  • طبقه‌بندی زیست‌سنجی (Biometric Categorisation) برای استنباط ویژگی‌های حساس (مانند جنسیت، نژاد یا مذهب)
  • سیستم‌های شناسایی زیستی از راه دور و آنی

در مقابل، کاربردهای پرخطر که در حوزه‌های استراتژیکی چون زیرساخت‌های حیاتی، نظام سلامت و فرآیندهای حساس استخدامی قرار می‌گیرند، تحت نظارت‌های شدید و الزامات سخت‌گیرانه‌تری نظیر ارزیابی جامع تأثیرات، گزارش‌دهی شفاف و پایش مستمر فعالیت‌ها قرار دارند. این الزامات شامل تهیه مستندات دقیق از داده‌های مورد استفاده، کنترل سوگیری‌های احتمالی و تضمین پایداری سیستم‌های هوش مصنوعی می‌شوند.

بر اساس ادعای مطرح شده از سوی مسئولان اروپایی و مدافعان اجرای این قانون، تدابیر نظارتی در راستای کاهش آسیب‌های اجتماعی، حقوقی و اقتصادی ناشی از عملکرد نادرست یا غیراخلاقی فناوری‌های هوشمند وضع شده‌اند و بر اهمیت مسئولیت‌پذیری سازمان‌ها در مواجهه با چالش‌های پیچیده حاکمیتی تأکید دارند.

معافیت کاربردهای نظامی و پیامدهای راهبردی

یکی از موضوعات مهم و شاید برجسته‌ترین نکته در این قانون، معافیت صریح سیستم‌های هوش مصنوعی مورد استفاده در بخش‌های نظامی و امنیت ملی است. این استثنا بیانگر رویکردی راهبردی در راستای حفظ مزیت رقابتی و پیشگامی فناورانه در حوزه دفاعی است. در این حوزه، فناوری‌های مبتنی بر هوش مصنوعی در بخش‌هایی چون شناسایی تهدیدات خودکار، امنیت سایبری پیشرفته، تحلیل و پیش‌بینی‌های تاکتیکی و مدیریت عملیات میدانی نقش کلیدی دارند. مدافعان این تصمیم، مدعی هستند که چنین کاربردهایی، به دلیل ماهیت حساس و محرمانه خود، به سرعت عمل و انعطاف‌پذیری بالا در تصمیم‌گیری‌های عملیاتی نیاز دارند؛ بنابراین، اعمال مقررات سخت‌گیرانه در این زمینه می‌تواند توسعه و پیاده‌سازی به‌موقع این فناوری‌ها را مختل کرده و بر کارآمدی مأموریت‌های امنیتی تأثیر منفی بگذارد. معافیت مذکور تضمین می‌کند که نهادهای نظامی بتوانند با تمرکز بر نوآوری‌های فناورانه، بدون تأخیرهای ناشی از فرایندهای نظارتی، به ارتقا قابلیت‌های دفاعی و امنیتی خود ادامه دهند.

این در حالی است که از سوی دیگر، بسیاری از کارشناسان، معافیت سامانه‌های دفاعی را به عنوان یکی از حساس‌ترین حوزه‌های کاربرد هوش مصنوعی، بسیار خطرناک و مخرب ارزیابی می‌کنند؛ زیرا در چنین شرایطی، بسیاری از سامانه‌های هوش مصنوعی ناقض حقوق بشر در میدان‌های نبرد، بدون هیچ محدودیتی امکان توسعه دارند.

سخت‌گیری‌های مقرراتی در کاربردهای مدنی

بر اساس قانون هوش مصنوعی اروپا، در مقابل، کاربردهای مدنی هوش مصنوعی ملزم به رعایت مجموعه‌ای از مقررات سخت‌گیرانه و چندلایه هستند. قانون‌گذاران اروپایی معتقدند که این مقررات به نحوی طراحی شده‌اند که از بروز تخلفات اخلاقی، نقض حریم خصوصی و تصمیم‌گیری‌های ناعادلانه جلوگیری کنند. علاوه بر این، دفتر هوش مصنوعی کمیسیون اروپا به عنوان نهاد نظارتی اصلی، وظیفه دارد تا از انطباق این سیستم‌ها با اصول اساسی نظارت انسانی، شفافیت در عملکرد و مسئولیت‌پذیری اطمینان حاصل کند. به‌ویژه در بخش‌هایی نظیر اعطای وام، فرآیندهای استخدامی و تشخیص‌های پزشکی که تأثیرات تصمیمات هوش مصنوعی می‌تواند عمیق و سرنوشت‌ساز باشد، این نظارت‌ها اهمیتی دوچندان می‌یابند.

بر اساس الزامات این قانون، سازمان‌ها و توسعه‌دهندگان هوش مصنوعی باید مستندات کاملی را تهیه کنند که جزئیاتی از قبیل منابع داده‌های آموزشی، روش‌های مورد استفاده برای کاهش و کنترل سوگیری‌ها و فرآیندهای تصمیم‌گیری الگوریتمی را شامل می‌شود. به علاوه، ارزیابی‌های منظم برای بررسی عملکرد سیستم‌ها و میزان تطابق آن‌ها با موازین اخلاقی و فنی الزامی است. بی‌شک چنین رویکردی، نه تنها به افزایش اعتماد عمومی به کاربردهای هوش مصنوعی کمک می‌کنند، بلکه زمینه را برای پاسخگویی در برابر هرگونه تخلف احتمالی نیز فراهم می‌سازد.

امنیت داده‌ها و تقویت سازوکارهای مقابله با اطلاعات جعلی

از دیگر محورهای کلیدی قانون هوش مصنوعی اتحادیه اروپا، توجه عمیق به امنیت داده‌ها و حفظ حریم خصوصی است که به‌عنوان یکی از اصول بنیادین حکمرانی فناوری اروپا محسوب می‌شود. توسعه‌دهندگان فناوری در راستای اجرای این قانون، موظف به اجرای پروتکل‌های پیشرفته امنیت سایبری هستند تا از خطراتی چون حملات سایبری گسترده، دسترسی غیرمجاز به داده‌ها و نقض حقوق حریم خصوصی جلوگیری کنند. این اقدامات شامل رمزنگاری داده‌ها، کنترل‌های دسترسی چندلایه و نظارت مستمر بر امنیت سیستم‌ها می‌شود.

در راستای مقابله با انتشار اطلاعات جعلی و محتوای گمراه‌کننده، ابزارهای هوش مصنوعی که توانایی تولید محتوای جعلی و دیپ‌فیک دارند، ملزم به استفاده از مکانیزم‌های پیشرفته تأیید هویت دیجیتال و برچسب‌گذاری شفاف محتوا شده‌اند. این مکانیزم‌ها به کاربران اجازه می‌دهند تا صحت و منبع اطلاعات ارائه شده را بررسی کرده و از گسترش اطلاعات نادرست جلوگیری نمایند. همچنین، توسعه‌دهندگان باید گزارش‌های ادواری درباره امنیت و عملکرد این ابزارها ارائه دهند و با ارزیابی‌های مستمر، از انطباق آن‌ها با الزامات قانونی اطمینان حاصل کنند.

پیامدهای بین‌المللی و چارچوب حکمرانی آینده

تحلیل‌گران بر این باورند که قانون هوش مصنوعی اروپا با ارائه مدلی جامع و فراگیر برای تنظیم‌گری فناوری‌های هوشمند، تأثیرات گسترده و چندبُعدی بر سیاست‌گذاری جهانی خواهد داشت. این قانون نه تنها به عنوان ابزاری برای مدیریت و نظارت بر نوآوری‌های فناورانه درون مرزهای اتحادیه اروپا به کار گرفته می‌شود، بلکه به دلیل جامعیت و سازگاری آن با اصول حکمرانی مدرن، به یک مرجع بین‌المللی در حوزه هوش مصنوعی تبدیل شده است.

مباحث مطرح شده در این قانون، شامل مسئولیت‌پذیری اخلاقی، امنیت فناوری و ترویج نوآوری پایدار، به گونه‌ای طراحی شده‌اند که کشورهای دیگر نیز بتوانند آن را به عنوان الگویی برای تدوین چارچوب‌های مشابه در نظام‌های قانونی خود در نظر بگیرند. از سوی دیگر، جمعیت بالای منطقه اتحادیه اروپا و اثرگذاری بالای کشورهای این بلوک بر سیاست‌های جهانی، راه را برای اشاعه آن در همه نقاط جهان هموار ساخته است. از همین روی، انتظار می‌رود که اجرای این مقررات، تعاملات فراملی در زمینه‌های مرتبط با فناوری‌های هوشمند را تقویت کرده و موجب هماهنگی بیشتری میان نظام‌های حکمرانی فناوری در سطح جهانی شود.

از سوی دیگر، برخی کارشناسان معتقدند که تضاد این قانون با سیاست‌های ایالات متحده آمریکا مبنی بر آزادی عمل بیشتر شرکت‌های و استارتاپ‌های هوش مصنوعی برای توسعه فناوری و رویکرد چین مبنی بر عدم پایبندی به برخی از محورهای مورد اشاره در این سند حقوقی، می‌تواند زمینه‌ساز برخی تنش‌های ژئوپلیتیک در مقیاس جهانی شود.

الزامات اجرایی کسب‌وکارها در راستای انطباق با قانون هوش مصنوعی اروپا

در این میان، سازمان‌ها و کسب‌وکارهایی که در حوزه توسعه و بهره‌برداری از سیستم‌های هوش مصنوعی فعالیت دارند، ناگزیرند تا رویکردی پیشگیرانه و راهبردی در مواجهه با تغییرات مداوم مقررات اتخاذ کنند. این امر مستلزم درک عمیق از چارچوب‌های نظارتی، ارزیابی مستمر عملکرد سیستم‌های هوش مصنوعی و انطباق آن‌ها با استانداردهای اخلاقی، فنی و امنیتی است. بر اساس برآوردهای صورت گرفته، با ظهور فناوری‌های نوین، به‌ویژه در حوزه‌هایی نظیر یادگیری عمیق، سیستم‌های خودمختار و تعاملات پیچیده انسان و ماشین، چارچوب‌های نظارتی به صورت مداوم بازنگری شده و به جنبه‌هایی همچون کاهش سوگیری‌های الگوریتمی، ارتقای شفافیت در تصمیم‌گیری‌ها و افزایش نظارت انسانی توجه بیشتری خواهد شد.

علاوه بر این، به نظر می‌رسد که کسب‌وکارها باید به شکلی فعال در فرآیندهای تدوین و بازنگری مقررات مشارکت داشته باشند و با بهره‌گیری از متخصصان حقوقی و فنی، اطمینان حاصل کنند که سیستم‌های هوش مصنوعی آن‌ها ضمن رعایت قوانین، قابلیت پاسخگویی در برابر چالش‌های پیش‌بینی‌نشده را دارند.

منبع خبر "خبرگزاری مهر" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.