همانطور که فناوری هوش مصنوعی به طور گسترده پذیرفته می شود، قوانین و دستورالعمل های اضافی برای محافظت از داده های شخصی و اطمینان از توسعه مدل ها با تمرکز بر مدیریت ریسک و پیشگیری از سوگیری در حال ظهور است.
نزدیک به 40 کشور در حال حاضر بر روی چارچوب های قانونی مرتبط با هوش مصنوعی کار می کنند، موارد استفاده جدید برای هوش مصنوعی را بررسی می کنند و قوانین موجود مانند مقررات حفاظت از داده های عمومی (GDPR) را گسترش می دهند. این وب قانونی در حال ظهور، پیچیدگی قابل توجهی را برای مشاغلی که به دنبال استفاده از این فناوری جدید قدرتمند هستند، به ارمغان می آورد، چه تصمیم گیری داخلی را کارآمدتر کنند و چه برای دستیابی به راه حل های جدید و بهتر به بازار.
ملاحظات کلیدی برای انطباق
قوانین موجود
اینکه برنامههای هوش مصنوعی چقدر خوب عمل میکنند تا حد زیادی به دادههای مورد استفاده برای آموزش LLMهایی که به آنها کمک میکنند بستگی دارد. کسبوکارها و تنظیمکنندهها نگرانیهایی در مورد حفاظت از حریم خصوصی شخصی و اطمینان از ایمن بودن دادههای اختصاصی دارند. در نتیجه، چندین حوزه از قوانین موجود در حال حاضر بر نحوه استفاده از داده های کاربر حاکم است. در ایالات متحده و سایر کشورها، قوانین خاص رویه های تجاری ناعادلانه و فریبنده ممکن است در مورد استفاده از هوش مصنوعی اعمال شود، حتی اگر قانون به طور صریح به این فناوری اشاره نکرده باشد. قوانین موجود حمایت از مصرف کننده مانند GDPR و CCPA (قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا) نگاهی تازه به هوش مصنوعی و نحوه استفاده و آموزش داده ها دارد، الزامات امنیتی و حفاظت از داده ها را تعیین می کند و نیاز به شفافیت در مورد نحوه استفاده هوش مصنوعی از داده های شخصی دارد.
دستورالعمل های “غیر الزام آور”.
در ماه مارس، سازمان ملل قطعنامهای را تصویب کرد که هوش مصنوعی «ایمن، مطمئن و قابل اعتماد» را ترویج میکند. این قطعنامه کشورها را تشویق می کند تا از حقوق بشر محافظت کنند، از داده های شخصی محافظت کنند و هوش مصنوعی را برای خطرات زیر نظر بگیرند. در حالی که الزام آور نیست، اصولی را برای هدایت توسعه و استفاده هوش مصنوعی ارائه می کند.
در اکتبر 2023، پرزیدنت بایدن فرمان اجرایی توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی را صادر کرد. مانند قطعنامه سازمان ملل، این فرمان اجرایی بدون اعمال مجازات برای عدم رعایت، جهت و راهنمایی ارائه می دهد. یک دستور اجرایی اغلب به عنوان پیش درآمدی برای قوانین آتی در نظر گرفته می شود و اقدامات مربوط به سازمان های استاندارد ممکن است لازم باشد از آنها پیروی کنند. در سطح دقیق تر، سازمان های فدرال منفرد دستورالعمل های خود را منتشر می کنند، از دفتر مدیریت و بودجه گرفته تا کمیسیون بورس و اوراق بهادار (SEC) که به تضاد منافع مرتبط با هوش مصنوعی در امور مالی رسیدگی می کند.
قانون گذاری با دندان
بار دیگر، اروپا از نظر قوانین بسیار جلوتر از ایالات متحده است. مانند حریم خصوصی داده ها و GDPR، اروپا دوباره با قانون هوش مصنوعی (EU AI Act) پیشتاز است. این اولین قانون مستقل در جهان است که تنها بر توسعه و استفاده از هوش مصنوعی متمرکز شده است. این قانون از 1 آگوست 2024 اجرایی شد و شامل یک روند دو ساله مرحلهای برای انطباق است.
قانون هوش مصنوعی اتحادیه اروپا سیستم های هوش مصنوعی را بر اساس چهار سطح خطر طبقه بندی می کند: حداقل، محدود، زیاد و غیرقابل قبول. استفادههای غیرقابل قبول شامل دستکاری رفتار انسان برای دور زدن اراده آزاد از طریق تکنیکهای زیرآگهی، طبقهبندی بیومتریک، امتیازدهی اجتماعی توسط دولتها و حذف تصاویر چهره از دوربینهای مداربسته برای ایجاد پایگاههای اطلاعاتی است. این استفاده ها با استثنائات محدود برای اجرای قانون ممنوع است. سیستمهای پرخطر، مانند سیستمهایی که در زیرساختهای حیاتی، مالی، مراقبتهای بهداشتی، عدالت و فرآیندهای دموکراتیک استفاده میشوند، باید از دستورالعملهای ایمنی، شفافیت و حاکمیت دادهها پیروی کنند. نقض می تواند منجر به جریمه تا 7٪ از درآمد جهانی سالانه یک شرکت (در مقایسه با حداکثر مجازات GDPR 4٪) شود.
در ایالات متحده، دولت فدرال از تصویب قوانین جامع هوش مصنوعی فاصله زیادی دارد. در عوض، اقداماتی در سطح ایالتی انجام می شود که بر پیچیدگی مشاغل می افزاید.
راهبردهای انطباق با قوانین در حال تغییر
پنجاه ایالت، پنجاه قانون هوش مصنوعی؟ چه کاری می توانید انجام دهید تا برای یک محیط نظارتی آماده شوید که با فن آوری جدید بازی می کند؟ هر آژانس و هر تنظیم کننده ای می خواهد موقعیتی داشته باشد که در رأس مشکل دیده شود. بنابراین، چه اشتراکاتی در این ابتکارات در حال ظهور برای محافظت از کاربران نهایی وجود دارد؟
حریم خصوصی. حفاظت از داده ها تست و شفافیت کاهش ریسک
1. از مقررات هوش مصنوعی مطلع باشید: تغییرات در قوانین و دستورالعملهای هوش مصنوعی را در سطوح محلی، منطقهای، ملی و بینالمللی به طور منظم نظارت کنید.
2. اقدامات قوی برای حفظ حریم خصوصی و امنیت داده ها را اجرا کنید: برای حفاظت از دادههای شخصی، تدابیر امنیتی و حریم خصوصی دادههای قوی را توسعه و اجرا کنید.
3. شفافیت و توضیح پذیری را ارتقا دهید: اطمینان حاصل کنید که سیستم های هوش مصنوعی شفاف و قابل توضیح هستند و اطلاعات واضحی در مورد جمع آوری، استفاده و پردازش داده ها ارائه می دهند.
4. انجام ارزیابی ریسک: شناسایی خطرات مرتبط با سیستم های هوش مصنوعی، ارزیابی انطباق با مقررات قابل اجرا و اتخاذ یک چارچوب کاهش خطر.
با تمرکز بر این استراتژیها، سازمانها میتوانند بهتر از چشمانداز مقرراتی در حال تحول و خطرات انطباق با استفاده اخلاقی و مسئولانه از هوش مصنوعی عبور کنند.
منبع: https://aibusiness.com/responsible-ai/ai-legislation-and-governance