الزام برای آزمایش مدلهای هوش مصنوعی، نگه داشتن انسانها در جریان، و دادن حق به چالش کشیدن تصمیمات خودکار اتخاذ شده توسط هوش مصنوعی تنها بخشی از 10 نرده محافظ اجباری است که توسط دولت استرالیا به عنوان راههایی برای به حداقل رساندن خطر هوش مصنوعی و ایجاد اعتماد عمومی در تکنولوژی
این حفاظها که در سپتامبر 2024 توسط وزیر صنعت و علوم، Ed Husic برای مشاوره عمومی راهاندازی شد، میتواند به زودی برای هوش مصنوعی مورد استفاده در محیطهای پرخطر اعمال شود. آنها با یک استاندارد ایمنی داوطلبانه هوش مصنوعی جدید تکمیل میشوند که برای تشویق کسبوکارها به اتخاذ سریع بهترین عملکرد هوش مصنوعی طراحی شده است.
نرده های اجباری هوش مصنوعی پیشنهاد شده چیست؟
استرالیا 10 نرده محافظ اجباری پیشنهادی طراحی شده اند تا انتظارات روشنی در مورد نحوه استفاده ایمن و مسئولانه از هوش مصنوعی در هنگام توسعه و استقرار آن در تنظیمات پرخطر ایجاد کنند. آنها به دنبال رسیدگی به خطرات و آسیب های ناشی از هوش مصنوعی، ایجاد اعتماد عمومی و ارائه اطمینان بیشتر به مشاغل هستند.
گاردیل 1: مسئولیت پذیری
مشابه الزامات در کانادا و قانون هوش مصنوعی اتحادیه اروپا، سازمان ها باید یک فرآیند پاسخگویی را برای انطباق با مقررات ایجاد، اجرا و منتشر کنند. این شامل جنبه هایی مانند سیاست ها برای داده ها و مدیریت ریسک و نقش ها و مسئولیت های داخلی روشن است.
گاردیل 2: مدیریت ریسک
یک فرآیند مدیریت ریسک برای شناسایی و کاهش خطرات هوش مصنوعی باید ایجاد و اجرا شود. این باید فراتر از ارزیابی ریسک فنی باشد تا اثرات بالقوه بر مردم، گروههای اجتماعی و جامعه را قبل از استفاده از یک سیستم هوش مصنوعی پرخطر در نظر بگیرد.
ببینید: 9 مورد استفاده نوآورانه برای هوش مصنوعی در مشاغل استرالیا در سال 2024
گاردریل 3: حفاظت از داده ها
سازمانها باید از سیستمهای هوش مصنوعی محافظت کنند تا از حریم خصوصی با اقدامات امنیت سایبری محافظت کنند، و همچنین اقدامات مدیریتی قوی داده را برای مدیریت کیفیت دادهها و جایی که از آن میآیند ایجاد کنند. دولت مشاهده کرد که کیفیت داده ها به طور مستقیم بر عملکرد و قابلیت اطمینان یک مدل هوش مصنوعی تأثیر می گذارد.
گاردریل 4: تست
سیستمهای هوش مصنوعی پرخطر باید قبل از عرضه به بازار آزمایش و ارزیابی شوند. همچنین پس از استقرار آنها باید به طور مداوم نظارت شوند تا اطمینان حاصل شود که طبق انتظار عمل می کنند. این برای اطمینان از اینکه آنها معیارهای عملکرد خاص، عینی و قابل اندازه گیری را برآورده می کنند و ریسک به حداقل می رسد.

گاردریل 5: کنترل انسانی
برای سیستمهای هوش مصنوعی پرخطر به نظارت انسانی معنادار نیاز است. این بدان معناست که سازمانها باید اطمینان حاصل کنند که انسانها میتوانند به طور موثر سیستم هوش مصنوعی را درک کنند، بر عملکرد آن نظارت کنند و در صورت لزوم در زنجیره تامین هوش مصنوعی و در طول چرخه حیات هوش مصنوعی مداخله کنند.
Guardrail 6: اطلاعات کاربر
سازمانها باید به کاربران نهایی اطلاع دهند که آیا موضوع تصمیمات مبتنی بر هوش مصنوعی هستند، در حال تعامل با هوش مصنوعی هستند یا محتوای تولید شده توسط هوش مصنوعی را مصرف میکنند، تا بدانند هوش مصنوعی چگونه استفاده میشود و کجا بر آنها تأثیر میگذارد. این باید به شیوه ای واضح، قابل دسترس و مرتبط بیان شود.
Guardrail 7: Challenging AI
افرادی که تحت تأثیر منفی سیستمهای هوش مصنوعی قرار میگیرند، حق استفاده یا نتایج را خواهند داشت. سازمانها باید فرآیندهایی را برای افرادی که تحت تأثیر سیستمهای هوش مصنوعی پرخطر هستند ایجاد کنند تا تصمیمات مبتنی بر هوش مصنوعی را به چالش بکشند یا درباره تجربه یا درمان خود شکایت کنند.
حفاظ 8: شفافیت
سازمانها باید با زنجیره تامین هوش مصنوعی در مورد دادهها، مدلها و سیستمها شفاف باشند تا به آنها کمک کند تا به طور موثر ریسک را برطرف کنند. این به این دلیل است که برخی از بازیگران ممکن است اطلاعات مهمی در مورد نحوه عملکرد یک سیستم نداشته باشند، که منجر به توضیح محدود می شود، مشابه مشکلات مدل های پیشرفته هوش مصنوعی امروزی.
Guardrail 9: رکوردهای هوش مصنوعی
نگهداری و نگهداری مجموعه ای از سوابق روی سیستم های هوش مصنوعی در طول چرخه عمر آن، از جمله مستندات فنی، مورد نیاز است. سازمان ها باید آماده باشند تا این سوابق را در صورت درخواست و به منظور ارزیابی انطباق آنها با نرده ها به مقامات مربوطه ارائه کنند.
ببینید: چرا پروژه های مولد هوش مصنوعی بدون درک کسب و کار خطر شکست دارند؟
Guardrail 10: ارزیابی های هوش مصنوعی
سازمانها مشمول ارزیابیهای انطباق میشوند که به عنوان مکانیزم مسئولیتپذیری و تضمین کیفیت توصیف میشود تا نشان دهند که به نردههای محافظ سیستمهای هوش مصنوعی پرخطر پایبند هستند. اینها توسط توسعه دهندگان سیستم هوش مصنوعی، اشخاص ثالث، یا نهادهای دولتی یا تنظیم کننده ها انجام می شود.
10 گاردریل اجباری جدید چه زمانی و چگونه اجرایی می شود؟
حفاظ های اجباری تا 4 اکتبر 2024 مشمول یک فرآیند مشاوره عمومی هستند.
پس از این، دولت به دنبال نهایی کردن گاردریل ها و اجرایی کردن آنها خواهد بود، به گفته Husic، که اضافه کرد که این می تواند شامل ایجاد یک قانون جدید هوش مصنوعی استرالیا باشد.
گزینه های دیگر عبارتند از:
- انطباق چارچوب های نظارتی موجود برای گنجاندن نرده های محافظ جدید.
- معرفی چارچوب قانون با اصلاحات مربوط به قوانین موجود.
هوسیک گفته است که دولت این کار را «به محض اینکه بتوانیم» انجام خواهد داد. نرده های محافظ در نتیجه یک فرآیند مشاوره طولانی تر در مورد مقررات هوش مصنوعی که از ژوئن 2023 در حال انجام است، متولد شده اند.
چرا دولت رویکردی را که در قبال مقررات در پیش گرفته است در پیش گرفته است؟
دولت استرالیا از اتحادیه اروپا در اتخاذ رویکردی مبتنی بر ریسک برای تنظیم هوش مصنوعی پیروی می کند. این رویکرد به دنبال متعادل کردن مزایایی است که هوش مصنوعی وعده داده است که با استقرار در تنظیمات پرخطر به ارمغان بیاورد.
تمرکز بر تنظیمات پرخطر
دولت در توضیح داده است که اقدامات پیشگیرانه پیشنهاد شده در حفاظ ها به دنبال “جلوگیری از آسیب فاجعه بار قبل از وقوع آن” است. مقاله پیشنهادات هوش مصنوعی ایمن و مسئولانه در استرالیا.
دولت هوش مصنوعی پرخطر را به عنوان بخشی از مشاوره تعریف خواهد کرد. با این حال، پیشنهاد میکند که سناریوهایی مانند اثرات نامطلوب بر حقوق بشر یک فرد، تأثیرات نامطلوب بر سلامت یا ایمنی جسمی یا روانی، و اثرات قانونی مانند مواد افتراآمیز، از جمله سایر خطرات احتمالی را در نظر بگیرد.
کسب و کارها به راهنمایی در مورد هوش مصنوعی نیاز دارند
دولت ادعا میکند که کسبوکارها برای پیادهسازی ایمن و مسئولانه هوش مصنوعی به نردههای محافظ روشن نیاز دارند.
به تازگی منتشر شده Responsible AI Index 2024 که توسط مرکز ملی هوش مصنوعی انجام شده است، نشان می دهد که کسب و کارهای استرالیایی به طور مداوم توانایی خود را برای به کارگیری شیوه های هوش مصنوعی مسئولانه بیش از حد ارزیابی می کنند.
نتایج این شاخص پیدا شد:
- 78 درصد از مشاغل استرالیایی معتقدند که هوش مصنوعی را به صورت ایمن و مسئولانه پیاده سازی می کنند، اما تنها در 29 درصد موارد این درست بوده است.
- سازمان های استرالیایی به طور متوسط تنها 12 مورد از 38 روش مسئول هوش مصنوعی را اتخاذ می کنند.
اکنون کسب و کارها و تیم های فناوری اطلاعات چه باید بکنند؟
نرده های محافظ اجباری تعهدات جدیدی را برای سازمان هایی که از هوش مصنوعی در محیط های پرخطر استفاده می کنند ایجاد می کند.
تیمهای فناوری اطلاعات و امنیت احتمالاً درگیر برآوردن برخی از این الزامات، از جمله کیفیت دادهها و تعهدات امنیتی، و تضمین شفافیت مدل از طریق زنجیره تأمین هستند.
استاندارد ایمنی داوطلبانه هوش مصنوعی
دولت الف را آزاد کرده است استاندارد ایمنی داوطلبانه هوش مصنوعی که اکنون برای مشاغل موجود است.
تیمهای فناوری اطلاعات که میخواهند آماده شوند، میتوانند از استاندارد ایمنی هوش مصنوعی برای کمک به سرعت بخشیدن به کسبوکار خود با تعهدات تحت هر قانون آینده، که ممکن است شامل نردههای محافظ اجباری جدید باشد، استفاده کنند.
استاندارد ایمنی هوش مصنوعی شامل توصیه هایی در مورد اینکه چگونه کسب و کارها می توانند استاندارد را از طریق نمونه های مطالعه موردی خاص، از جمله موارد استفاده رایج از یک ربات چت هوش مصنوعی با هدف عمومی، اعمال و اتخاذ کنند، می باشد.
منبع: https://www.techrepublic.com/article/australia-proposes-mandatory-guardrials-ai/