این هفته مقامات بریتانیا، اتحادیه اروپا، ایالات متحده و هفت کشور دیگر در سانفرانسیسکو گرد هم آمدند تا «شبکه بینالمللی مؤسسههای ایمنی هوش مصنوعی» را راهاندازی کنند.
این جلسه که در باشگاه گلدن گیت برگزار شد، به مدیریت خطرات محتوای تولید شده توسط هوش مصنوعی، آزمایش مدلهای پایه و انجام ارزیابی ریسک برای سیستمهای هوش مصنوعی پیشرفته پرداخت. موسسات ایمنی هوش مصنوعی از استرالیا، کانادا، فرانسه، ژاپن، کنیا، جمهوری کره و سنگاپور نیز رسما به شبکه پیوستند.
علاوه بر امضای بیانیه ماموریتبیش از 11 میلیون دلار بودجه به تحقیق در مورد محتوای تولید شده توسط هوش مصنوعی اختصاص یافت و نتایج اولین تمرین آزمایش ایمنی مشترک شبکه مورد بررسی قرار گرفت. شرکت کنندگان شامل مقامات نظارتی، توسعه دهندگان هوش مصنوعی، دانشگاهیان و رهبران جامعه مدنی بودند تا به بحث در مورد چالش های نوظهور هوش مصنوعی و پادمان های بالقوه کمک کنند.
این نشست بر اساس پیشرفت های انجام شده در نشست قبلی ایمنی هوش مصنوعی در ماه می که در سئول برگزار شد. 10 کشور موافقت کردند که «همکاری و گفتوگوی بینالمللی در زمینه هوش مصنوعی را در مواجهه با پیشرفتهای بیسابقه آن و تأثیر آن بر اقتصاد و جوامع ما تقویت کنند».
شبکه بین المللی موسسات ایمنی هوش مصنوعی به عنوان یک انجمن برای همکاری عمل خواهد کرد و تخصص فنی را برای رسیدگی به خطرات ایمنی هوش مصنوعی و بهترین شیوه ها گرد هم می آورد. کمیسیون اروپا. با درک اهمیت تنوع فرهنگی و زبانی، این شبکه در جهت درک یکپارچه از خطرات ایمنی هوش مصنوعی و استراتژی های کاهش کار خواهد کرد.
مؤسسههای عضو ایمنی هوش مصنوعی باید پیشرفت خود را در آزمایش و ارزیابی ایمنی هوش مصنوعی در اجلاس تأثیر هوش مصنوعی پاریس در فوریه 2025 نشان دهند تا بتوانند با بحث در مورد مقررات پیشروی کنند.
نتایج کلیدی کنفرانس
بیانیه ماموریت امضا شد
بیانیه ماموریت اعضای شبکه را متعهد به همکاری در چهار زمینه می کند:
- تحقیق: همکاری با جامعه تحقیقات ایمنی هوش مصنوعی و به اشتراک گذاری یافته ها.
- تست کردن: توسعه و به اشتراک گذاری بهترین شیوه ها برای آزمایش سیستم های پیشرفته هوش مصنوعی.
- راهنمایی: تسهیل رویکردهای مشترک برای تفسیر نتایج تست ایمنی هوش مصنوعی.
- شمول: به اشتراک گذاری اطلاعات و ابزارهای فنی برای گسترش مشارکت در علم ایمنی هوش مصنوعی.
بیش از 11 میلیون دلار به تحقیقات ایمنی هوش مصنوعی اختصاص یافته است
در مجموع، اعضای شبکه و چندین سازمان غیرانتفاعی بیش از 11 میلیون دلار بودجه برای تحقیقات در زمینه کاهش خطر محتوای تولید شده توسط هوش مصنوعی اعلام کردند. مطالب مربوط به سوء استفاده جنسی از کودکان، تصاویر جنسی بدون توافق و استفاده از هوش مصنوعی برای تقلب و جعل هویت به عنوان زمینه های اصلی نگرانی برجسته شده است.
بودجه به عنوان اولویت به محققانی که در مورد تکنیکهای شفافیت محتوای دیجیتال و مدلهای حفاظتی برای جلوگیری از تولید و توزیع محتوای مضر تحقیق میکنند، اختصاص مییابد. کمک های مالی برای دانشمندانی در نظر گرفته می شود که کاهش های فنی و ارزیابی های علمی و انسانی اجتماعی را توسعه می دهند.
مؤسسه ایالات متحده نیز یک را منتشر کرد مجموعه ای از رویکردهای داوطلبانه برای رسیدگی به خطرات محتوای تولید شده توسط هوش مصنوعی.
نتایج یک تمرین آزمایش مشترک مورد بحث قرار گرفت
این شبکه اولین تمرین آزمایشی مشترک خود را در متا انجام داده است لاما 3.1 405B، به دانش عمومی، قابلیت های چند زبانه و توهمات حوزه بسته نگاه می کند، که در آن یک مدل اطلاعاتی را از خارج از قلمرو آنچه که به آن دستور داده شده است ارائه می دهد.
این تمرین چندین ملاحظات را برای چگونگی بهبود تست ایمنی هوش مصنوعی در زبانها، فرهنگها و زمینهها مطرح کرد. برای مثال، تفاوتهای روششناختی جزئی و تکنیکهای بهینهسازی مدل میتواند بر نتایج ارزیابی تأثیر بگذارد. تمرینهای آزمایشی مشترک گستردهتر قبل از نشست اقدام AI پاریس برگزار خواهد شد.
مبنای مشترک برای ارزیابی ریسک مورد توافق قرار گرفت
شبکه بر روی الف توافق کرده است مبنای علمی مشترک برای ارزیابی ریسک هوش مصنوعیاز جمله اینکه آنها باید عملی، شفاف، جامع، چندجانبه، تکرار شونده و قابل تکرار باشند. اعضا درباره چگونگی عملیاتی شدن آن بحث کردند.
کارگروه “آزمایش خطرات هوش مصنوعی برای امنیت ملی” ایالات متحده تاسیس شد
سرانجام، کارگروه جدید TRAINS به رهبری مؤسسه ایمنی هوش مصنوعی ایالات متحده تأسیس شد و شامل کارشناسانی از سایر آژانس های ایالات متحده از جمله بازرگانی، دفاع، انرژی و امنیت داخلی بود. همه اعضا مدلهای هوش مصنوعی را برای مدیریت خطرات امنیت ملی در حوزههایی مانند امنیت رادیولوژیکی و هستهای، امنیت شیمیایی و بیولوژیکی، امنیت سایبری، زیرساختهای حیاتی و قابلیتهای نظامی آزمایش خواهند کرد.
ببینید: اپل به تعهد داوطلبانه دولت ایالات متحده به ایمنی هوش مصنوعی پیوست
این موضوع نشان میدهد که نقطه تلاقی هوش مصنوعی و ارتش در ایالات متحده چقدر برجسته است. ماه گذشته، کاخ سفید اولین مورد را منتشر کرد. یادداشت امنیت ملی در مورد هوش مصنوعی، که به وزارت دفاع و سازمان های اطلاعاتی ایالات متحده دستور داد تا به پذیرش هوش مصنوعی در ماموریت های امنیت ملی سرعت بخشند.
سخنرانان به ایجاد تعادل بین نوآوری هوش مصنوعی و ایمنی پرداختند
جینا ریموندو، وزیر بازرگانی ایالات متحده، سخنرانی اصلی را روز چهارشنبه ایراد کرد. او به حاضران گفت که «پیشبرد هوش مصنوعی کار درستی است، اما پیشرفت در سریعترین زمان ممکن، فقط به این دلیل که میتوانیم، بدون فکر کردن به عواقب آن، کار هوشمندانهای نیست». TIME.
نبرد بین پیشرفت و ایمنی در هوش مصنوعی در ماههای اخیر محل مناقشه بین دولتها و شرکتهای فناوری بوده است. در حالی که هدف این است که مصرف کنندگان را ایمن نگه دارند، تنظیم کننده ها خطر محدود کردن دسترسی آنها به آخرین فناوری ها را دارند، که می تواند منافع ملموس به ارمغان بیاورد. گوگل و متا هر دو را دارند آشکارا از مقررات هوش مصنوعی اروپا انتقاد کرد، با اشاره به منطقه قانون هوش مصنوعی، نشان می دهد که پتانسیل نوآوری خود را از بین می برد.
رایموندو گفت که موسسه ایمنی هوش مصنوعی ایالات متحده “در کار خفه کردن نوآوری نیست.” AP. اما موضوع اینجاست. ایمنی برای نوآوری خوب است. ایمنی باعث ایجاد اعتماد می شود. اعتماد سرعت پذیرش را افزایش می دهد. پذیرش منجر به نوآوری بیشتر می شود.»
او همچنین تاکید کرد که کشورها “مکلف” برای مدیریت خطراتی هستند که می تواند بر جامعه تأثیر منفی بگذارد، مانند ایجاد بیکاری و نقض امنیت. او از طریق AP گفت: “اجازه ندهیم جاه طلبی ما را کور کند و اجازه ندهیم که در خواب راه برویم و به عقب نشینی خود بپردازیم.”
داریو آمودی، مدیر عامل آنتروپیک نیز در سخنرانی خود بر لزوم انجام تست ایمنی تاکید کرد. او گفت که در حالی که «مردم امروز وقتی چتباتها چیزی غیرقابل پیشبینی میگویند میخندند»، این نشان میدهد که کنترل هوش مصنوعی قبل از به دست آوردن قابلیتهای بدتر چقدر ضروری است. ثروت.
موسسات ایمنی جهانی هوش مصنوعی در سال گذشته ظهور کرده اند
را اولین جلسه مقامات هوش مصنوعی حدود یک سال پیش در پارک بلچلی در باکینگهامشر، انگلستان رخ داد. این شاهد راه اندازی موسسه ایمنی هوش مصنوعی بریتانیا بود که سه هدف اصلی را دنبال می کند:
- ارزیابی سیستم های هوش مصنوعی موجود
- انجام تحقیقات پایه ایمنی هوش مصنوعی.
- به اشتراک گذاری اطلاعات با دیگر بازیگران ملی و بین المللی.
ایالات متحده مؤسسه ایمنی هوش مصنوعی خود را دارد که به طور رسمی توسط NIST در فوریه 2024 تأسیس شد و به عنوان رئیس شبکه تعیین شده است. این برای کار بر روی اقدامات اولویت بندی شده در دستور اجرایی هوش مصنوعی در اکتبر 2023 صادر شد. این اقدامات شامل توسعه استانداردهایی برای ایمنی و امنیت سیستم های هوش مصنوعی است.
ببینید: معاملات OpenAI و Anthropic Sign با موسسه ایمنی هوش مصنوعی ایالات متحده
در ماه آوریل، دولت بریتانیا رسما با آمریکا موافقت کرد در توسعه آزمایشهایی برای مدلهای پیشرفته هوش مصنوعی، عمدتاً با به اشتراک گذاشتن پیشرفتهای ایجاد شده توسط مؤسسههای ایمنی هوش مصنوعی مربوطه. بر اساس توافقی که در سئول انجام شد، مؤسسات مشابهی در کشورهای دیگر ایجاد شد که به این همکاری ملحق شدند.
شفاف سازی موضع ایالات متحده در قبال ایمنی هوش مصنوعی با کنفرانس سانفرانسیسکو به ویژه مهم بود، زیرا کشور گسترده تر در حال حاضر نگرش بسیار حمایتی از خود نشان نمی دهد. رئیس جمهور منتخب دونالد ترامپ دارد متعهد شد که فرمان اجرایی را لغو کند وقتی به کاخ سفید برمی گردد. گاوین نیوسام فرماندار کالیفرنیا نیز که در این مراسم حضور داشت لایحه بحث برانگیز مقررات هوش مصنوعی را وتو کرد SB 1047 در پایان سپتامبر.
منبع: https://www.techrepublic.com/article/international-network-ai-safety-institutes-meeting/