استرالیا نرده های محافظ اجباری برای هوش مصنوعی پیشنهاد می کند


الزام برای آزمایش مدل‌های هوش مصنوعی، نگه داشتن انسان‌ها در جریان، و دادن حق به چالش کشیدن تصمیمات خودکار اتخاذ شده توسط هوش مصنوعی تنها بخشی از 10 نرده محافظ اجباری است که توسط دولت استرالیا به عنوان راه‌هایی برای به حداقل رساندن خطر هوش مصنوعی و ایجاد اعتماد عمومی در تکنولوژی

این حفاظ‌ها که در سپتامبر 2024 توسط وزیر صنعت و علوم، Ed Husic برای مشاوره عمومی راه‌اندازی شد، می‌تواند به زودی برای هوش مصنوعی مورد استفاده در محیط‌های پرخطر اعمال شود. آنها با یک استاندارد ایمنی داوطلبانه هوش مصنوعی جدید تکمیل می‌شوند که برای تشویق کسب‌وکارها به اتخاذ سریع بهترین عملکرد هوش مصنوعی طراحی شده است.

نرده های اجباری هوش مصنوعی پیشنهاد شده چیست؟

استرالیا 10 نرده محافظ اجباری پیشنهادی طراحی شده اند تا انتظارات روشنی در مورد نحوه استفاده ایمن و مسئولانه از هوش مصنوعی در هنگام توسعه و استقرار آن در تنظیمات پرخطر ایجاد کنند. آنها به دنبال رسیدگی به خطرات و آسیب های ناشی از هوش مصنوعی، ایجاد اعتماد عمومی و ارائه اطمینان بیشتر به مشاغل هستند.

گاردیل 1: مسئولیت پذیری

مشابه الزامات در کانادا و قانون هوش مصنوعی اتحادیه اروپا، سازمان ها باید یک فرآیند پاسخگویی را برای انطباق با مقررات ایجاد، اجرا و منتشر کنند. این شامل جنبه هایی مانند سیاست ها برای داده ها و مدیریت ریسک و نقش ها و مسئولیت های داخلی روشن است.

گاردیل 2: مدیریت ریسک

یک فرآیند مدیریت ریسک برای شناسایی و کاهش خطرات هوش مصنوعی باید ایجاد و اجرا شود. این باید فراتر از ارزیابی ریسک فنی باشد تا اثرات بالقوه بر مردم، گروه‌های اجتماعی و جامعه را قبل از استفاده از یک سیستم هوش مصنوعی پرخطر در نظر بگیرد.

ببینید: 9 مورد استفاده نوآورانه برای هوش مصنوعی در مشاغل استرالیا در سال 2024

گاردریل 3: حفاظت از داده ها

سازمان‌ها باید از سیستم‌های هوش مصنوعی محافظت کنند تا از حریم خصوصی با اقدامات امنیت سایبری محافظت کنند، و همچنین اقدامات مدیریتی قوی داده را برای مدیریت کیفیت داده‌ها و جایی که از آن می‌آیند ایجاد کنند. دولت مشاهده کرد که کیفیت داده ها به طور مستقیم بر عملکرد و قابلیت اطمینان یک مدل هوش مصنوعی تأثیر می گذارد.

گاردریل 4: تست

سیستم‌های هوش مصنوعی پرخطر باید قبل از عرضه به بازار آزمایش و ارزیابی شوند. همچنین پس از استقرار آنها باید به طور مداوم نظارت شوند تا اطمینان حاصل شود که طبق انتظار عمل می کنند. این برای اطمینان از اینکه آنها معیارهای عملکرد خاص، عینی و قابل اندازه گیری را برآورده می کنند و ریسک به حداقل می رسد.

Inforgraphic که روش‌هایی را که دولت استرالیا از هوش مصنوعی ایمن و مسئولانه حمایت می‌کند، توضیح می‌دهد
راه هایی که دولت استرالیا از هوش مصنوعی ایمن و مسئولانه حمایت می کند

گاردریل 5: کنترل انسانی

برای سیستم‌های هوش مصنوعی پرخطر به نظارت انسانی معنادار نیاز است. این بدان معناست که سازمان‌ها باید اطمینان حاصل کنند که انسان‌ها می‌توانند به طور موثر سیستم هوش مصنوعی را درک کنند، بر عملکرد آن نظارت کنند و در صورت لزوم در زنجیره تامین هوش مصنوعی و در طول چرخه حیات هوش مصنوعی مداخله کنند.

Guardrail 6: اطلاعات کاربر

سازمان‌ها باید به کاربران نهایی اطلاع دهند که آیا موضوع تصمیمات مبتنی بر هوش مصنوعی هستند، در حال تعامل با هوش مصنوعی هستند یا محتوای تولید شده توسط هوش مصنوعی را مصرف می‌کنند، تا بدانند هوش مصنوعی چگونه استفاده می‌شود و کجا بر آنها تأثیر می‌گذارد. این باید به شیوه ای واضح، قابل دسترس و مرتبط بیان شود.

Guardrail 7: Challenging AI

افرادی که تحت تأثیر منفی سیستم‌های هوش مصنوعی قرار می‌گیرند، حق استفاده یا نتایج را خواهند داشت. سازمان‌ها باید فرآیندهایی را برای افرادی که تحت تأثیر سیستم‌های هوش مصنوعی پرخطر هستند ایجاد کنند تا تصمیمات مبتنی بر هوش مصنوعی را به چالش بکشند یا درباره تجربه یا درمان خود شکایت کنند.

حفاظ 8: شفافیت

سازمان‌ها باید با زنجیره تامین هوش مصنوعی در مورد داده‌ها، مدل‌ها و سیستم‌ها شفاف باشند تا به آنها کمک کند تا به طور موثر ریسک را برطرف کنند. این به این دلیل است که برخی از بازیگران ممکن است اطلاعات مهمی در مورد نحوه عملکرد یک سیستم نداشته باشند، که منجر به توضیح محدود می شود، مشابه مشکلات مدل های پیشرفته هوش مصنوعی امروزی.

Guardrail 9: رکوردهای هوش مصنوعی

نگهداری و نگهداری مجموعه ای از سوابق روی سیستم های هوش مصنوعی در طول چرخه عمر آن، از جمله مستندات فنی، مورد نیاز است. سازمان ها باید آماده باشند تا این سوابق را در صورت درخواست و به منظور ارزیابی انطباق آنها با نرده ها به مقامات مربوطه ارائه کنند.

ببینید: چرا پروژه های مولد هوش مصنوعی بدون درک کسب و کار خطر شکست دارند؟

Guardrail 10: ارزیابی های هوش مصنوعی

سازمان‌ها مشمول ارزیابی‌های انطباق می‌شوند که به عنوان مکانیزم مسئولیت‌پذیری و تضمین کیفیت توصیف می‌شود تا نشان دهند که به نرده‌های محافظ سیستم‌های هوش مصنوعی پرخطر پایبند هستند. اینها توسط توسعه دهندگان سیستم هوش مصنوعی، اشخاص ثالث، یا نهادهای دولتی یا تنظیم کننده ها انجام می شود.

10 گاردریل اجباری جدید چه زمانی و چگونه اجرایی می شود؟

حفاظ های اجباری تا 4 اکتبر 2024 مشمول یک فرآیند مشاوره عمومی هستند.

پس از این، دولت به دنبال نهایی کردن گاردریل ها و اجرایی کردن آنها خواهد بود، به گفته Husic، که اضافه کرد که این می تواند شامل ایجاد یک قانون جدید هوش مصنوعی استرالیا باشد.

گزینه های دیگر عبارتند از:

  • انطباق چارچوب های نظارتی موجود برای گنجاندن نرده های محافظ جدید.
  • معرفی چارچوب قانون با اصلاحات مربوط به قوانین موجود.

هوسیک گفته است که دولت این کار را «به محض اینکه بتوانیم» انجام خواهد داد. نرده های محافظ در نتیجه یک فرآیند مشاوره طولانی تر در مورد مقررات هوش مصنوعی که از ژوئن 2023 در حال انجام است، متولد شده اند.

چرا دولت رویکردی را که در قبال مقررات در پیش گرفته است در پیش گرفته است؟

دولت استرالیا از اتحادیه اروپا در اتخاذ رویکردی مبتنی بر ریسک برای تنظیم هوش مصنوعی پیروی می کند. این رویکرد به دنبال متعادل کردن مزایایی است که هوش مصنوعی وعده داده است که با استقرار در تنظیمات پرخطر به ارمغان بیاورد.

تمرکز بر تنظیمات پرخطر

دولت در توضیح داده است که اقدامات پیشگیرانه پیشنهاد شده در حفاظ ها به دنبال “جلوگیری از آسیب فاجعه بار قبل از وقوع آن” است. مقاله پیشنهادات هوش مصنوعی ایمن و مسئولانه در استرالیا.

دولت هوش مصنوعی پرخطر را به عنوان بخشی از مشاوره تعریف خواهد کرد. با این حال، پیشنهاد می‌کند که سناریوهایی مانند اثرات نامطلوب بر حقوق بشر یک فرد، تأثیرات نامطلوب بر سلامت یا ایمنی جسمی یا روانی، و اثرات قانونی مانند مواد افتراآمیز، از جمله سایر خطرات احتمالی را در نظر بگیرد.

کسب و کارها به راهنمایی در مورد هوش مصنوعی نیاز دارند

دولت ادعا می‌کند که کسب‌وکارها برای پیاده‌سازی ایمن و مسئولانه هوش مصنوعی به نرده‌های محافظ روشن نیاز دارند.

به تازگی منتشر شده Responsible AI Index 2024 که توسط مرکز ملی هوش مصنوعی انجام شده است، نشان می دهد که کسب و کارهای استرالیایی به طور مداوم توانایی خود را برای به کارگیری شیوه های هوش مصنوعی مسئولانه بیش از حد ارزیابی می کنند.

نتایج این شاخص پیدا شد:

  • 78 درصد از مشاغل استرالیایی معتقدند که هوش مصنوعی را به صورت ایمن و مسئولانه پیاده سازی می کنند، اما تنها در 29 درصد موارد این درست بوده است.
  • سازمان های استرالیایی به طور متوسط ​​تنها 12 مورد از 38 روش مسئول هوش مصنوعی را اتخاذ می کنند.

اکنون کسب و کارها و تیم های فناوری اطلاعات چه باید بکنند؟

نرده های محافظ اجباری تعهدات جدیدی را برای سازمان هایی که از هوش مصنوعی در محیط های پرخطر استفاده می کنند ایجاد می کند.

تیم‌های فناوری اطلاعات و امنیت احتمالاً درگیر برآوردن برخی از این الزامات، از جمله کیفیت داده‌ها و تعهدات امنیتی، و تضمین شفافیت مدل از طریق زنجیره تأمین هستند.

استاندارد ایمنی داوطلبانه هوش مصنوعی

دولت الف را آزاد کرده است استاندارد ایمنی داوطلبانه هوش مصنوعی که اکنون برای مشاغل موجود است.

تیم‌های فناوری اطلاعات که می‌خواهند آماده شوند، می‌توانند از استاندارد ایمنی هوش مصنوعی برای کمک به سرعت بخشیدن به کسب‌وکار خود با تعهدات تحت هر قانون آینده، که ممکن است شامل نرده‌های محافظ اجباری جدید باشد، استفاده کنند.

استاندارد ایمنی هوش مصنوعی شامل توصیه هایی در مورد اینکه چگونه کسب و کارها می توانند استاندارد را از طریق نمونه های مطالعه موردی خاص، از جمله موارد استفاده رایج از یک ربات چت هوش مصنوعی با هدف عمومی، اعمال و اتخاذ کنند، می باشد.



منبع: https://www.techrepublic.com/article/australia-proposes-mandatory-guardrials-ai/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *