
از 2 آگوست 2025 ، ارائه دهندگان مدل های هوش مصنوعی با هدف عمومی (GPAI) در اتحادیه اروپا باید مطابق با مفاد کلیدی قانون اتحادیه اروپا باشند. الزامات شامل حفظ مستندات فنی به روز و خلاصه داده های آموزش است.
در AI ACT تشریح اقدامات گسترده اتحادیه اروپا با هدف اطمینان از استفاده ایمن و اخلاقی از هوش مصنوعی. آن را تأسیس می کند یک رویکرد مبتنی بر ریسک برای مقررات این سیستم سیستم های هوش مصنوعی را بر اساس سطح درک شده آنها از خطر و تأثیر بر شهروندان طبقه بندی می کند.
با نزدیک شدن به مهلت ، کارشناسان حقوقی از ارائه دهندگان هوش مصنوعی می شنوند که این قانون فاقد وضوح است و حتی اگر قصد رعایت آنها را داشته باشد ، آنها را به مجازات های احتمالی باز می کند. برخی از الزامات همچنین با پرسیدن بیش از حد از نوآوری های فنی ، نوآوری در بلوک را تهدید می کند ، اما این قانون هیچ تمرکز واقعی بر کاهش خطرات تعصب و محتوای مضر AI ندارد.
الیور هاولی ، شریک در بخش فناوری در موسسه حقوقی Proskauer ، در مورد این کاستی ها با TechRepublic صحبت کرد. وی در یک ایمیل گفت: “از نظر تئوری ، 2 اوت 2025 باید نقطه عطفی برای مسئول هوش مصنوعی باشد.” “در عمل ، این امر باعث عدم اطمینان قابل توجهی و در برخی موارد تردید تجاری واقعی است.”
قانون نامشخص ارائه دهندگان GPAI را در معرض نشت IP و مجازات ها قرار می دهد
در پشت صحنه ، ارائه دهندگان مدل های هوش مصنوعی در اتحادیه اروپا با این قانون دست و پنجه نرم می کنند ، زیرا “این خیلی برای تفسیر باز می شود”. “از نظر تئوری ، قوانین قابل دستیابی هستند … اما آنها در سطح بالایی تهیه شده اند و این باعث ایجاد ابهام واقعی می شود.”
این قانون مدلهای GPAI را به عنوان “کلی بودن قابل توجه” بدون آستانه روشن تعریف می کند ، و ارائه دهندگان باید خلاصه های “به اندازه کافی دقیق” از داده های مورد استفاده برای آموزش مدل های خود را منتشر کنند. ابهام در اینجا مسئله ای ایجاد می کند ، زیرا فاش کردن جزئیات بیش از حد می تواند “خطر آشکار کردن IP ارزشمند یا ایجاد اختلافات حق چاپ را داشته باشد.”
برخی از الزامات مات نیز استانداردهای غیرواقعی را نیز در نظر می گیرند. در کد تمرین AI، یک چارچوب داوطلبانه که شرکت های فناوری می توانند برای اجرای و اجرای قانون AI ثبت نام کنند ، به ارائه دهندگان مدل GPAI دستور می دهد وب سایت هایی را که از داده های آموزش خود انتخاب کرده اند ، فیلتر کنند. هاولی گفت این “استانداردی است که به اندازه کافی دشوار است ، چه رسد به بازگرداندن.”
همچنین مشخص نیست که چه کسی موظف است از الزامات پیروی کند. “اگر شما یک مدل منبع باز را برای یک کار خاص تنظیم کنید ، آیا اکنون” ارائه دهنده “هستید؟” هاولی گفت. “اگر شما فقط آن را میزبانی کنید یا آن را به یک محصول پایین دست بپیچید؟
در واقع ، در حالی که ارائه دهندگان مدل های GPAI با منبع باز از برخی از تعهدات شفافیت معاف هستند ، در صورت ایجاد “خطر سیستمیک” ، این درست نیست. در حقیقت ، آنها مجموعه متفاوتی از تعهدات سختگیرانه تر ، از جمله آزمایش ایمنی ، تیم سازی قرمز و نظارت پس از استقرار دارند. اما از آنجا که منبع باز امکان استفاده نامحدود را فراهم می کند ، ردیابی کلیه برنامه های پایین دست تقریباً غیرممکن است ، اما ارائه دهنده هنوز هم می تواند در قبال نتایج مضر مسئولیت پذیر باشد.
الزامات سنگین می تواند تأثیر نامتناسب در استارتاپ های هوش مصنوعی داشته باشد
هاولی به TechRepublic گفت: “برخی از توسعه دهندگان ، با وجود امضای كد ، این نگرانی ها را ایجاد كرده اند كه الزامات شفافیت می تواند اسرار تجاری و نوآوری را در اروپا افشا كند.” Openai ، Anthropic و Google به آن متعهد شده اند ، با این که غول جستجو به ویژه چنین نگرانی هایی را ابراز می کند. متا به طور علنی از امضای قانون در اعتراض به قانون به شکل فعلی خودداری کرده است.
“برخی از شرکت ها در حال حاضر در حال به تعویق انداختن راه اندازی یا محدود کردن دسترسی در بازار اتحادیه اروپا هستند – نه به این دلیل که آنها با اهداف قانون مخالف نیستند ، بلکه به این دلیل که مسیر انطباق مشخص نیست ، و هزینه اشتباه آن بسیار زیاد است.”
هاولی گفت که استارتاپ ها سخت ترین زمان را دارند زیرا آنها برای کمک به الزامات گسترده مستندات ، پشتیبانی قانونی داخلی ندارند. اینها برخی از اساسی ترین شرکت ها در مورد نوآوری هستند ، و اتحادیه اروپا این را تشخیص می دهدبشر
وی افزود: “برای توسعه دهندگان مرحله اولیه ، خطر قرار گرفتن در معرض حقوقی یا بازپرداخت ویژگی ها ممکن است برای منحرف کردن سرمایه گذاری به طور کلی از اتحادیه اروپا کافی باشد.” “بنابراین در حالی که اهداف این عمل سالم است ، خطر این است که اجرای آن دقیقاً نوع نوآوری مسئولیتی را که برای پشتیبانی از آن طراحی شده است ، کند می کند.”
اثر ضرب و شتم احتمالی از پتانسیل استارتاپ ها افزایش تنش های ژئوپلیتیکی است. دولت ایالات متحده مخالفت صوتی با مقررات هوش مصنوعی درگیری با فشار اتحادیه اروپا برای نظارت ، و می تواند فشار بیاورد مذاکرات تجاری مداومبشر هاولی گفت: “اگر اقدامات اجرایی شروع به ضربه زدن به ارائه دهندگان مستقر در ایالات متحده کند ، این تنش می تواند بیشتر افزایش یابد.”
ACT تمرکز بسیار کمی در جلوگیری از تعصب و محتوای مضر و محدود کردن اثربخشی آن دارد
هاولی به TechRepublic گفت ، در حالی که این قانون نیاز به شفافیت قابل توجهی دارد ، هیچ آستانه اجباری برای صحت ، قابلیت اطمینان یا تأثیر در دنیای واقعی وجود ندارد.
وی گفت: “حتی مدل های خطرناک سیستمیک بر اساس خروجی های واقعی آنها ، فقط بر استحکام کاغذهای اطراف تنظیم نمی شوند.” “یک مدل می تواند هر نیاز فنی را برآورده کند ، از انتشار خلاصه های آموزش گرفته تا اجرای پروتکل های پاسخ به حادثه ، و هنوز هم تولید می کند مضر یا مغرض محتوا. “
در تاریخ 2 آگوست چه قوانینی به وجود می آید؟
پنج مجموعه از قوانین وجود دارد که ارائه دهندگان مدل های GPAI باید از این تاریخ اطمینان حاصل کنند و از این تاریخ پیروی می کنند:
اجساد مطلع شده
ارائه دهندگان مدل های GPAI پرخطر باید برای ارزیابی انطباق با اجسام مطلع آماده شوند و ساختار نظارتی را که از آن ارزیابی ها پشتیبانی می کند ، درک کنند.
سیستم های هوش مصنوعی با ریسک بالا ، آنهایی هستند که تهدیدی برای بهداشت ، ایمنی یا حقوق اساسی دارند. آنها یا: 1. به عنوان مؤلفه های ایمنی محصولات اداره شده توسط آنها استفاده می شود قوانین ایمنی محصول اتحادیه اروپا، یا 2. مستقر در مورد استفاده حساس، از جمله:
- شناسایی بیومتریکی
- مدیریت بحرانی زیرساخت
- آموزش
- اشتغال و HR
- اجرای قانون
مدل های GPAI: ریسک سیستمیک باعث تعهدات سختگیرانه تر می شود
مدل های GPAI می توانند چندین هدف را ارائه دهند. این مدل ها اگر بیش از 1025 عملیات شناور در ثانیه (FLOPS) در طول آموزش انجام شوند ، “خطر سیستمیک” را تشکیل می دهند و توسط این موارد به این ترتیب تعیین می شوند دفتر اتحادیه اروپابشر chatgpt Openai ، Llama متا و Gemini Google متناسب با این معیارها هستند.
کلیه ارائه دهندگان مدل های GPAI باید دارای مستندات فنی ، خلاصه داده های آموزشی ، سیاست انطباق کپی رایت ، راهنمایی برای استقرارهای پایین دست و اقدامات شفافیت در مورد قابلیت ها ، محدودیت ها و استفاده در نظر گرفته شده باشند.
ارائه دهندگان مدل های GPAI که ریسک سیستمیک را ارائه می دهند نیز باید ارزیابی های مدل را انجام دهند ، حوادث را گزارش دهند ، استراتژی های کاهش ریسک و حفاظت از امنیت سایبری را انجام دهند ، مصرف انرژی را فاش کنند و نظارت پس از بازار را انجام دهند.
حاکمیت: نظارت از چندین نهاد اتحادیه اروپا
این مجموعه قوانین ، معماری حاکمیت و اجرای را در سطح اتحادیه اروپا و ملی تعریف می کند. ارائه دهندگان مدل های GPAI باید در انجام تعهدات مربوط به انطباق خود ، پاسخ دادن به درخواست های نظارت و شرکت در نظارت بر ریسک و فرایندهای گزارش حادثه ، با دفتر AI اتحادیه اروپا ، هیئت مدیره AI اروپا ، هیئت علمی و مقامات ملی همکاری کنند.
محرمانه بودن: حمایت از اسرار IP و تجارت
کلیه درخواست های داده های ارائه شده به ارائه دهندگان مدل GPAI توسط مقامات از نظر قانونی توجیه شده ، ایمن انجام می شود و در معرض حمایت های محرمانه بودن ، به ویژه برای IP ، اسرار تجاری و کد منبع قرار می گیرد.
مجازات ها: جریمه حداکثر 35 میلیون یورو یا 7 ٪ درآمد
ارائه دهندگان مدل های GPAI در معرض مجازات های حداکثر 35،000،000 یورو یا 7 ٪ از کل گردش مالی سالانه خود در سراسر جهان ، هر کدام بالاتر ، برای عدم رعایت شیوه های ممنوع هوش مصنوعی تحت ماده 5، مانند:
- دستکاری در رفتار انسان
- امتیازات اجتماعی
- خراش داده تشخیص چهره
- شناسایی بیومتریک در زمان واقعی در عموم
نقض دیگر تعهدات نظارتی ، مانند شفافیت ، مدیریت ریسک یا مسئولیت های استقرار ، ممکن است منجر به جریمه تا 15،000،000 یورو یا 3 ٪ گردش مالی شود.
تهیه اطلاعات گمراه کننده یا ناقص برای مقامات می تواند منجر به جریمه 7،500،000 یورو یا 1 ٪ گردش مالی شود.
برای SME ها و استارتاپ ها ، پایین تر از مقدار یا درصد ثابت اعمال می شود. مجازات ها شدت نقض ، تأثیر آن ، چه ارائه دهنده همکاری داشته باشد و اینکه آیا این تخلف عمدی بوده یا سهل انگاری در نظر خواهد گرفت.
در حالی که تعهدات نظارتی خاص برای ارائه دهندگان مدل GPAI از 2 آگوست 2025 شروع به کار می کند ، یک دوره فضل یک ساله برای رعایت آن در دسترس است ، به این معنی که تا 2 اوت 2026 خطر مجازات ها وجود نخواهد داشت.
چه موقع بقیه قانون اتحادیه اروپا به مرحله اجرا می آیند؟
قانون اتحادیه اروپا در تاریخ 12 ژوئیه 2024 در مجله رسمی اتحادیه اروپا منتشر شد و در اول اوت 2024 به اجرا درآمد. با این حال ، مقررات مختلفی در مراحل اعمال می شود.
- 2 فوریه 2025: برخی از سیستم های هوش مصنوعی که به نظر می رسد خطر غیرقابل قبول را ایجاد می کنند (به عنوان مثال ، امتیاز دهی اجتماعی ، نظارت بیومتریک در زمان واقعی در عمومی) ممنوع شد. شرکت هایی که از هوش مصنوعی توسعه یا استفاده می کنند باید اطمینان حاصل کنند که کارکنان خود از سواد هوش مصنوعی کافی برخوردار هستند.
- 2 آگوست 2026: مدل های GPAI که پس از 2 آگوست 2025 در بازار قرار گرفته اند ، باید تا این تاریخ سازگار باشند ، زیرا اختیارات اجرایی کمیسیون به طور رسمی آغاز می شود.
قوانین برخی از سیستم های هوش مصنوعی پرخطر ذکر شده همچنین شروع به درخواست: 1. مواردی که پس از این تاریخ در بازار قرار گرفته اند ، و ساعت 2. آنهایی که قبل از این تاریخ در بازار قرار داده شده و از آن زمان دستخوش اصلاح قابل توجهی شده اند. - 2 آگوست 2027: مدل های GPAI که قبل از 2 آگوست 2025 در بازار قرار داده شده است ، باید در رعایت کامل قرار بگیرند.
سیستم های پرخطر که به عنوان مؤلفه های ایمنی محصولات اداره می شوند قوانین ایمنی محصول اتحادیه اروپا از این پس باید از تعهدات سختگیرانه تر نیز پیروی کند. - 2 آگوست 2030: سیستم های هوش مصنوعی مورد استفاده سازمانهای بخش دولتی که تحت گروه پرخطر قرار می گیرند باید تا این تاریخ کاملاً سازگار باشند.
- 31 دسامبر 2030: سیستم های هوش مصنوعی که مؤلفه های سیستم IT در مقیاس بزرگ اتحادیه اروپا هستند و قبل از 2 آگوست 2027 در بازار قرار داده شده اند ، باید در این مهلت نهایی به رعایت آن شوند.
گروهی به نمایندگی از اپل ، گوگل ، متا و سایر شرکت ها از تنظیم کننده ها خواستند که حداقل دو سال اجرای این قانون را به تعویق بیندازند ، اما اتحادیه اروپا این درخواست را رد کردبشر
منبع: https://www.techrepublic.com/article/news-eu-ai-act-gpai-models/