مقامات بریتانیا، ایالات متحده و اتحادیه اروپا در سانفرانسیسکو گرد هم می آیند تا در مورد ایمنی هوش مصنوعی بحث کنند


این هفته مقامات بریتانیا، اتحادیه اروپا، ایالات متحده و هفت کشور دیگر در سانفرانسیسکو گرد هم آمدند تا «شبکه بین‌المللی مؤسسه‌های ایمنی هوش مصنوعی» را راه‌اندازی کنند.

این جلسه که در باشگاه گلدن گیت برگزار شد، به مدیریت خطرات محتوای تولید شده توسط هوش مصنوعی، آزمایش مدل‌های پایه و انجام ارزیابی ریسک برای سیستم‌های هوش مصنوعی پیشرفته پرداخت. موسسات ایمنی هوش مصنوعی از استرالیا، کانادا، فرانسه، ژاپن، کنیا، جمهوری کره و سنگاپور نیز رسما به شبکه پیوستند.

علاوه بر امضای بیانیه ماموریتبیش از 11 میلیون دلار بودجه به تحقیق در مورد محتوای تولید شده توسط هوش مصنوعی اختصاص یافت و نتایج اولین تمرین آزمایش ایمنی مشترک شبکه مورد بررسی قرار گرفت. شرکت کنندگان شامل مقامات نظارتی، توسعه دهندگان هوش مصنوعی، دانشگاهیان و رهبران جامعه مدنی بودند تا به بحث در مورد چالش های نوظهور هوش مصنوعی و پادمان های بالقوه کمک کنند.

این نشست بر اساس پیشرفت های انجام شده در نشست قبلی ایمنی هوش مصنوعی در ماه می که در سئول برگزار شد. 10 کشور موافقت کردند که «همکاری و گفت‌وگوی بین‌المللی در زمینه هوش مصنوعی را در مواجهه با پیشرفت‌های بی‌سابقه آن و تأثیر آن بر اقتصاد و جوامع ما تقویت کنند».

شبکه بین المللی موسسات ایمنی هوش مصنوعی به عنوان یک انجمن برای همکاری عمل خواهد کرد و تخصص فنی را برای رسیدگی به خطرات ایمنی هوش مصنوعی و بهترین شیوه ها گرد هم می آورد. کمیسیون اروپا. با درک اهمیت تنوع فرهنگی و زبانی، این شبکه در جهت درک یکپارچه از خطرات ایمنی هوش مصنوعی و استراتژی های کاهش کار خواهد کرد.

مؤسسه‌های عضو ایمنی هوش مصنوعی باید پیشرفت خود را در آزمایش و ارزیابی ایمنی هوش مصنوعی در اجلاس تأثیر هوش مصنوعی پاریس در فوریه 2025 نشان دهند تا بتوانند با بحث در مورد مقررات پیشروی کنند.

نتایج کلیدی کنفرانس

بیانیه ماموریت امضا شد

بیانیه ماموریت اعضای شبکه را متعهد به همکاری در چهار زمینه می کند:

  1. تحقیق: همکاری با جامعه تحقیقات ایمنی هوش مصنوعی و به اشتراک گذاری یافته ها.
  2. تست کردن: توسعه و به اشتراک گذاری بهترین شیوه ها برای آزمایش سیستم های پیشرفته هوش مصنوعی.
  3. راهنمایی: تسهیل رویکردهای مشترک برای تفسیر نتایج تست ایمنی هوش مصنوعی.
  4. شمول: به اشتراک گذاری اطلاعات و ابزارهای فنی برای گسترش مشارکت در علم ایمنی هوش مصنوعی.

بیش از 11 میلیون دلار به تحقیقات ایمنی هوش مصنوعی اختصاص یافته است

در مجموع، اعضای شبکه و چندین سازمان غیرانتفاعی بیش از 11 میلیون دلار بودجه برای تحقیقات در زمینه کاهش خطر محتوای تولید شده توسط هوش مصنوعی اعلام کردند. مطالب مربوط به سوء استفاده جنسی از کودکان، تصاویر جنسی بدون توافق و استفاده از هوش مصنوعی برای تقلب و جعل هویت به عنوان زمینه های اصلی نگرانی برجسته شده است.

بودجه به عنوان اولویت به محققانی که در مورد تکنیک‌های شفافیت محتوای دیجیتال و مدل‌های حفاظتی برای جلوگیری از تولید و توزیع محتوای مضر تحقیق می‌کنند، اختصاص می‌یابد. کمک های مالی برای دانشمندانی در نظر گرفته می شود که کاهش های فنی و ارزیابی های علمی و انسانی اجتماعی را توسعه می دهند.

مؤسسه ایالات متحده نیز یک را منتشر کرد مجموعه ای از رویکردهای داوطلبانه برای رسیدگی به خطرات محتوای تولید شده توسط هوش مصنوعی.

نتایج یک تمرین آزمایش مشترک مورد بحث قرار گرفت

این شبکه اولین تمرین آزمایشی مشترک خود را در متا انجام داده است لاما 3.1 405B، به دانش عمومی، قابلیت های چند زبانه و توهمات حوزه بسته نگاه می کند، که در آن یک مدل اطلاعاتی را از خارج از قلمرو آنچه که به آن دستور داده شده است ارائه می دهد.

این تمرین چندین ملاحظات را برای چگونگی بهبود تست ایمنی هوش مصنوعی در زبان‌ها، فرهنگ‌ها و زمینه‌ها مطرح کرد. برای مثال، تفاوت‌های روش‌شناختی جزئی و تکنیک‌های بهینه‌سازی مدل می‌تواند بر نتایج ارزیابی تأثیر بگذارد. تمرین‌های آزمایشی مشترک گسترده‌تر قبل از نشست اقدام AI پاریس برگزار خواهد شد.

مبنای مشترک برای ارزیابی ریسک مورد توافق قرار گرفت

شبکه بر روی الف توافق کرده است مبنای علمی مشترک برای ارزیابی ریسک هوش مصنوعیاز جمله اینکه آنها باید عملی، شفاف، جامع، چندجانبه، تکرار شونده و قابل تکرار باشند. اعضا درباره چگونگی عملیاتی شدن آن بحث کردند.

کارگروه “آزمایش خطرات هوش مصنوعی برای امنیت ملی” ایالات متحده تاسیس شد

سرانجام، کارگروه جدید TRAINS به رهبری مؤسسه ایمنی هوش مصنوعی ایالات متحده تأسیس شد و شامل کارشناسانی از سایر آژانس های ایالات متحده از جمله بازرگانی، دفاع، انرژی و امنیت داخلی بود. همه اعضا مدل‌های هوش مصنوعی را برای مدیریت خطرات امنیت ملی در حوزه‌هایی مانند امنیت رادیولوژیکی و هسته‌ای، امنیت شیمیایی و بیولوژیکی، امنیت سایبری، زیرساخت‌های حیاتی و قابلیت‌های نظامی آزمایش خواهند کرد.

ببینید: اپل به تعهد داوطلبانه دولت ایالات متحده به ایمنی هوش مصنوعی پیوست

این موضوع نشان می‌دهد که نقطه تلاقی هوش مصنوعی و ارتش در ایالات متحده چقدر برجسته است. ماه گذشته، کاخ سفید اولین مورد را منتشر کرد. یادداشت امنیت ملی در مورد هوش مصنوعی، که به وزارت دفاع و سازمان های اطلاعاتی ایالات متحده دستور داد تا به پذیرش هوش مصنوعی در ماموریت های امنیت ملی سرعت بخشند.

سخنرانان به ایجاد تعادل بین نوآوری هوش مصنوعی و ایمنی پرداختند

جینا ریموندو، وزیر بازرگانی ایالات متحده، سخنرانی اصلی را روز چهارشنبه ایراد کرد. او به حاضران گفت که «پیشبرد هوش مصنوعی کار درستی است، اما پیشرفت در سریع‌ترین زمان ممکن، فقط به این دلیل که می‌توانیم، بدون فکر کردن به عواقب آن، کار هوشمندانه‌ای نیست». TIME.

نبرد بین پیشرفت و ایمنی در هوش مصنوعی در ماه‌های اخیر محل مناقشه بین دولت‌ها و شرکت‌های فناوری بوده است. در حالی که هدف این است که مصرف کنندگان را ایمن نگه دارند، تنظیم کننده ها خطر محدود کردن دسترسی آنها به آخرین فناوری ها را دارند، که می تواند منافع ملموس به ارمغان بیاورد. گوگل و متا هر دو را دارند آشکارا از مقررات هوش مصنوعی اروپا انتقاد کرد، با اشاره به منطقه قانون هوش مصنوعی، نشان می دهد که پتانسیل نوآوری خود را از بین می برد.

رایموندو گفت که موسسه ایمنی هوش مصنوعی ایالات متحده “در کار خفه کردن نوآوری نیست.” AP. اما موضوع اینجاست. ایمنی برای نوآوری خوب است. ایمنی باعث ایجاد اعتماد می شود. اعتماد سرعت پذیرش را افزایش می دهد. پذیرش منجر به نوآوری بیشتر می شود.»

او همچنین تاکید کرد که کشورها “مکلف” برای مدیریت خطراتی هستند که می تواند بر جامعه تأثیر منفی بگذارد، مانند ایجاد بیکاری و نقض امنیت. او از طریق AP گفت: “اجازه ندهیم جاه طلبی ما را کور کند و اجازه ندهیم که در خواب راه برویم و به عقب نشینی خود بپردازیم.”

داریو آمودی، مدیر عامل آنتروپیک نیز در سخنرانی خود بر لزوم انجام تست ایمنی تاکید کرد. او گفت که در حالی که «مردم امروز وقتی چت‌بات‌ها چیزی غیرقابل پیش‌بینی می‌گویند می‌خندند»، این نشان می‌دهد که کنترل هوش مصنوعی قبل از به دست آوردن قابلیت‌های بدتر چقدر ضروری است. ثروت.

موسسات ایمنی جهانی هوش مصنوعی در سال گذشته ظهور کرده اند

را اولین جلسه مقامات هوش مصنوعی حدود یک سال پیش در پارک بلچلی در باکینگهام‌شر، انگلستان رخ داد. این شاهد راه اندازی موسسه ایمنی هوش مصنوعی بریتانیا بود که سه هدف اصلی را دنبال می کند:

  • ارزیابی سیستم های هوش مصنوعی موجود
  • انجام تحقیقات پایه ایمنی هوش مصنوعی.
  • به اشتراک گذاری اطلاعات با دیگر بازیگران ملی و بین المللی.

ایالات متحده مؤسسه ایمنی هوش مصنوعی خود را دارد که به طور رسمی توسط NIST در فوریه 2024 تأسیس شد و به عنوان رئیس شبکه تعیین شده است. این برای کار بر روی اقدامات اولویت بندی شده در دستور اجرایی هوش مصنوعی در اکتبر 2023 صادر شد. این اقدامات شامل توسعه استانداردهایی برای ایمنی و امنیت سیستم های هوش مصنوعی است.

ببینید: معاملات OpenAI و Anthropic Sign با موسسه ایمنی هوش مصنوعی ایالات متحده

در ماه آوریل، دولت بریتانیا رسما با آمریکا موافقت کرد در توسعه آزمایش‌هایی برای مدل‌های پیشرفته هوش مصنوعی، عمدتاً با به اشتراک گذاشتن پیشرفت‌های ایجاد شده توسط مؤسسه‌های ایمنی هوش مصنوعی مربوطه. بر اساس توافقی که در سئول انجام شد، مؤسسات مشابهی در کشورهای دیگر ایجاد شد که به این همکاری ملحق شدند.

شفاف سازی موضع ایالات متحده در قبال ایمنی هوش مصنوعی با کنفرانس سانفرانسیسکو به ویژه مهم بود، زیرا کشور گسترده تر در حال حاضر نگرش بسیار حمایتی از خود نشان نمی دهد. رئیس جمهور منتخب دونالد ترامپ دارد متعهد شد که فرمان اجرایی را لغو کند وقتی به کاخ سفید برمی گردد. گاوین نیوسام فرماندار کالیفرنیا نیز که در این مراسم حضور داشت لایحه بحث برانگیز مقررات هوش مصنوعی را وتو کرد SB 1047 در پایان سپتامبر.



منبع: https://www.techrepublic.com/article/international-network-ai-safety-institutes-meeting/