قانونگذاری و حکمرانی هوش مصنوعی


همانطور که فناوری هوش مصنوعی به طور گسترده پذیرفته می شود، قوانین و دستورالعمل های اضافی برای محافظت از داده های شخصی و اطمینان از توسعه مدل ها با تمرکز بر مدیریت ریسک و پیشگیری از سوگیری در حال ظهور است.

نزدیک به 40 کشور در حال حاضر بر روی چارچوب های قانونی مرتبط با هوش مصنوعی کار می کنند، موارد استفاده جدید برای هوش مصنوعی را بررسی می کنند و قوانین موجود مانند مقررات حفاظت از داده های عمومی (GDPR) را گسترش می دهند. این وب قانونی در حال ظهور، پیچیدگی قابل توجهی را برای مشاغلی که به دنبال استفاده از این فناوری جدید قدرتمند هستند، به ارمغان می آورد، چه تصمیم گیری داخلی را کارآمدتر کنند و چه برای دستیابی به راه حل های جدید و بهتر به بازار.

ملاحظات کلیدی برای انطباق

قوانین موجود

اینکه برنامه‌های هوش مصنوعی چقدر خوب عمل می‌کنند تا حد زیادی به داده‌های مورد استفاده برای آموزش LLM‌هایی که به آنها کمک می‌کنند بستگی دارد. کسب‌وکارها و تنظیم‌کننده‌ها نگرانی‌هایی در مورد حفاظت از حریم خصوصی شخصی و اطمینان از ایمن بودن داده‌های اختصاصی دارند. در نتیجه، چندین حوزه از قوانین موجود در حال حاضر بر نحوه استفاده از داده های کاربر حاکم است. در ایالات متحده و سایر کشورها، قوانین خاص رویه های تجاری ناعادلانه و فریبنده ممکن است در مورد استفاده از هوش مصنوعی اعمال شود، حتی اگر قانون به طور صریح به این فناوری اشاره نکرده باشد. قوانین موجود حمایت از مصرف کننده مانند GDPR و CCPA (قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا) نگاهی تازه به هوش مصنوعی و نحوه استفاده و آموزش داده ها دارد، الزامات امنیتی و حفاظت از داده ها را تعیین می کند و نیاز به شفافیت در مورد نحوه استفاده هوش مصنوعی از داده های شخصی دارد.

مرتبط:هوش مصنوعی در محل کار: پیمایش در مسیر بهره وری بدون فرسودگی شغلی

دستورالعمل های “غیر الزام آور”.

در ماه مارس، سازمان ملل قطعنامه‌ای را تصویب کرد که هوش مصنوعی «ایمن، مطمئن و قابل اعتماد» را ترویج می‌کند. این قطعنامه کشورها را تشویق می کند تا از حقوق بشر محافظت کنند، از داده های شخصی محافظت کنند و هوش مصنوعی را برای خطرات زیر نظر بگیرند. در حالی که الزام آور نیست، اصولی را برای هدایت توسعه و استفاده هوش مصنوعی ارائه می کند.

در اکتبر 2023، پرزیدنت بایدن فرمان اجرایی توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی را صادر کرد. مانند قطعنامه سازمان ملل، این فرمان اجرایی بدون اعمال مجازات برای عدم رعایت، جهت و راهنمایی ارائه می دهد. یک دستور اجرایی اغلب به عنوان پیش درآمدی برای قوانین آتی در نظر گرفته می شود و اقدامات مربوط به سازمان های استاندارد ممکن است لازم باشد از آنها پیروی کنند. در سطح دقیق تر، سازمان های فدرال منفرد دستورالعمل های خود را منتشر می کنند، از دفتر مدیریت و بودجه گرفته تا کمیسیون بورس و اوراق بهادار (SEC) که به تضاد منافع مرتبط با هوش مصنوعی در امور مالی رسیدگی می کند.

قانون گذاری با دندان

بار دیگر، اروپا از نظر قوانین بسیار جلوتر از ایالات متحده است. مانند حریم خصوصی داده ها و GDPR، اروپا دوباره با قانون هوش مصنوعی (EU AI Act) پیشتاز است. این اولین قانون مستقل در جهان است که تنها بر توسعه و استفاده از هوش مصنوعی متمرکز شده است. این قانون از 1 آگوست 2024 اجرایی شد و شامل یک روند دو ساله مرحله‌ای برای انطباق است.

مرتبط:با انتخاب ابزار صحیح از تبلیغات گران‌قیمت هوش مصنوعی اجتناب کنید

قانون هوش مصنوعی اتحادیه اروپا سیستم های هوش مصنوعی را بر اساس چهار سطح خطر طبقه بندی می کند: حداقل، محدود، زیاد و غیرقابل قبول. استفاده‌های غیرقابل قبول شامل دستکاری رفتار انسان برای دور زدن اراده آزاد از طریق تکنیک‌های زیرآگهی، طبقه‌بندی بیومتریک، امتیازدهی اجتماعی توسط دولت‌ها و حذف تصاویر چهره از دوربین‌های مداربسته برای ایجاد پایگاه‌های اطلاعاتی است. این استفاده ها با استثنائات محدود برای اجرای قانون ممنوع است. سیستم‌های پرخطر، مانند سیستم‌هایی که در زیرساخت‌های حیاتی، مالی، مراقبت‌های بهداشتی، عدالت و فرآیندهای دموکراتیک استفاده می‌شوند، باید از دستورالعمل‌های ایمنی، شفافیت و حاکمیت داده‌ها پیروی کنند. نقض می تواند منجر به جریمه تا 7٪ از درآمد جهانی سالانه یک شرکت (در مقایسه با حداکثر مجازات GDPR 4٪) شود.

در ایالات متحده، دولت فدرال از تصویب قوانین جامع هوش مصنوعی فاصله زیادی دارد. در عوض، اقداماتی در سطح ایالتی انجام می شود که بر پیچیدگی مشاغل می افزاید.

راهبردهای انطباق با قوانین در حال تغییر

پنجاه ایالت، پنجاه قانون هوش مصنوعی؟ چه کاری می توانید انجام دهید تا برای یک محیط نظارتی آماده شوید که با فن آوری جدید بازی می کند؟ هر آژانس و هر تنظیم کننده ای می خواهد موقعیتی داشته باشد که در رأس مشکل دیده شود. بنابراین، چه اشتراکاتی در این ابتکارات در حال ظهور برای محافظت از کاربران نهایی وجود دارد؟

حریم خصوصی. حفاظت از داده ها تست و شفافیت کاهش ریسک

1. از مقررات هوش مصنوعی مطلع باشید: تغییرات در قوانین و دستورالعمل‌های هوش مصنوعی را در سطوح محلی، منطقه‌ای، ملی و بین‌المللی به طور منظم نظارت کنید.

2. اقدامات قوی برای حفظ حریم خصوصی و امنیت داده ها را اجرا کنید: برای حفاظت از داده‌های شخصی، تدابیر امنیتی و حریم خصوصی داده‌های قوی را توسعه و اجرا کنید.

3. شفافیت و توضیح پذیری را ارتقا دهید: اطمینان حاصل کنید که سیستم های هوش مصنوعی شفاف و قابل توضیح هستند و اطلاعات واضحی در مورد جمع آوری، استفاده و پردازش داده ها ارائه می دهند.

4. انجام ارزیابی ریسک: شناسایی خطرات مرتبط با سیستم های هوش مصنوعی، ارزیابی انطباق با مقررات قابل اجرا و اتخاذ یک چارچوب کاهش خطر.

با تمرکز بر این استراتژی‌ها، سازمان‌ها می‌توانند بهتر از چشم‌انداز مقرراتی در حال تحول و خطرات انطباق با استفاده اخلاقی و مسئولانه از هوش مصنوعی عبور کنند.





منبع: https://aibusiness.com/responsible-ai/ai-legislation-and-governance

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *