معاملات OpenAI و Anthropic Sign با موسسه ایمنی هوش مصنوعی ایالات متحده


OpenAI و Anthropic با دولت ایالات متحده قراردادهایی امضا کرده اند که مدل های هوش مصنوعی مرزی خود را برای آزمایش و تحقیقات ایمنی ارائه می دهند. یک اطلاعیه از NIST روز پنجشنبه فاش کرد که موسسه ایمنی هوش مصنوعی ایالات متحده به فناوری‌ها «قبل از انتشار عمومی و پس از انتشار آن‌ها» دسترسی خواهد داشت.

به لطف یادداشت تفاهم مربوطه – توافق نامه های غیر الزام آور – که توسط دو غول هوش مصنوعی امضا شده است، AISI می تواند قابلیت های مدل های آنها را ارزیابی کند و خطرات ایمنی را شناسایی و کاهش دهد.

را AISI، که به طور رسمی توسط NIST در فوریه 2024 تأسیس شد، بر اقدامات اولویت بندی شده در دستور اجرایی هوش مصنوعی در مورد توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی که در اکتبر 2023 صادر شد. این اقدامات شامل توسعه استانداردهایی برای ایمنی و امنیت سیستم های هوش مصنوعی است. این گروه توسط کنسرسیوم موسسه ایمنی هوش مصنوعی، که اعضای آن متا، OpenAI، NVIDIA، Google، Amazon و Microsoft هستند.

الیزابت کلی، مدیر AISI، در بیانیه مطبوعاتی گفت: “ایمنی برای تقویت نوآوری های تکنولوژیکی ضروری است. با وجود این توافقات، ما مشتاقانه منتظر شروع همکاری های فنی خود با Anthropic و OpenAI برای پیشرفت علم ایمنی هوش مصنوعی هستیم.

این توافق‌نامه‌ها فقط شروع هستند، اما نقطه عطف مهمی هستند زیرا ما برای کمک به مدیریت مسئولانه آینده هوش مصنوعی تلاش می‌کنیم.»

ببینید: تعریف هوش مصنوعی مولد: نحوه عملکرد، مزایا و خطرات

جک کلارک، یکی از بنیانگذاران و رئیس Policy، Anthropic، از طریق ایمیل به TechRepublic گفت: «هوش مصنوعی ایمن و قابل اعتماد برای تأثیر مثبت این فناوری بسیار مهم است. همکاری ما با مؤسسه ایمنی هوش مصنوعی ایالات متحده از تخصص گسترده آنها برای آزمایش دقیق مدل های ما قبل از استقرار گسترده استفاده می کند.

“این توانایی ما را برای شناسایی و کاهش خطرات تقویت می کند و توسعه هوش مصنوعی مسئول را پیش می برد. ما مفتخریم که در این کار حیاتی سهیم هستیم و معیارهای جدیدی را برای هوش مصنوعی ایمن و قابل اعتماد تعیین می‌کنیم.»

جیسون کوون، مدیر ارشد استراتژی OpenAI، از طریق ایمیل به TechRepublic گفت: «ما قویاً از مأموریت مؤسسه ایمنی هوش مصنوعی ایالات متحده حمایت می‌کنیم و مشتاقانه منتظر همکاری برای اطلاع‌رسانی بهترین شیوه‌ها و استانداردهای ایمنی برای مدل‌های هوش مصنوعی هستیم.

ما معتقدیم که این موسسه نقش مهمی در تعریف رهبری ایالات متحده در توسعه مسئولانه هوش مصنوعی دارد و امیدواریم که کار مشترک ما چارچوبی را ارائه دهد که بقیه جهان بتوانند بر آن بنا کنند.

AISI برای همکاری با موسسه ایمنی هوش مصنوعی بریتانیا

AISI همچنین قصد دارد با موسسه ایمنی هوش مصنوعی بریتانیا در هنگام ارائه بازخوردهای مرتبط با ایمنی به OpenAI و Anthropic همکاری کند. در ماه آوریل، دو کشور رسماً توافق کردند که با یکدیگر همکاری کنند در توسعه تست های ایمنی برای مدل های هوش مصنوعی.

این توافق برای حفظ تعهدات ایجاد شده در اولین جهانی اتخاذ شد اجلاس ایمنی هوش مصنوعی نوامبر گذشته، جایی که دولت‌ها از سراسر جهان نقش خود را در آزمایش ایمنی نسل بعدی مدل‌های هوش مصنوعی پذیرفتند.

پس از اعلام روز پنجشنبه، جک کلارک، یکی از بنیانگذاران و رئیس سیاست در Anthropic، ارسال شده در X: «آزمایش شخص ثالث بخش واقعاً مهمی از اکوسیستم هوش مصنوعی است و دیدن دولت‌ها برای تسهیل این امر، موسسات ایمنی را برپا می‌کنند.

“این کار با AISI ایالات متحده بر اساس کارهای قبلی است که امسال انجام دادیم، جایی که ما با AISI بریتانیا برای انجام یک آزمایش پیش از استقرار در Sonnet 3.5 کار کردیم.”

Claude 3.5 Sonnet جدیدترین مدل هوش مصنوعی Anthropic است که در ماه ژوئن عرضه شد.

از زمان انتشار ChatGPT، شرکت‌های هوش مصنوعی و تنظیم‌کننده‌ها بر سر نیاز به مقررات سخت‌گیرانه هوش مصنوعی با هم درگیر شده‌اند، و اولی برای محافظت در برابر خطراتی مانند اطلاعات نادرست تلاش می‌کند، در حالی که دومی استدلال می‌کند که قوانین بیش از حد سخت‌گیرانه می‌تواند نوآوری را خفه کند. بازیکنان برتر سیلیکون ولی از یک دفاع کرده اند چارچوب داوطلبانه اجازه نظارت دولت بر فن آوری های هوش مصنوعی خود را به جای دستورات نظارتی سختگیرانه.

رویکرد ایالات متحده در سطح ملی بیشتر صنعت دوست بوده و بر دستورالعمل‌های داوطلبانه و همکاری با شرکت‌های فناوری متمرکز شده است، همانطور که در ابتکارات لمسی سبک مانند منشور حقوق هوش مصنوعی و دستور اجرایی هوش مصنوعی. در مقابل، اتحادیه اروپا مسیر نظارتی سخت گیرانه تری را در پیش گرفته است قانون هوش مصنوعی، تعیین الزامات قانونی در مورد شفافیت و مدیریت ریسک.

در روز چهارشنبه، مجمع ایالتی کالیفرنیا، تا حدودی با دیدگاه ملی در مورد مقررات هوش مصنوعی در تضاد است قانون نوآوری ایمن و ایمن برای مدل های هوش مصنوعی مرزی را تصویب کردکه با نام SB-1047 یا قانون هوش مصنوعی کالیفرنیا نیز شناخته می شود. روز بعد، توسط مجلس سنای ایالت تصویب شد، و اکنون فقط باید توسط فرماندار گاوین نیوسام قبل از تصویب به قانون تصویب شود.

استوارهای سیلیکون ولی OpenAI، متا، و گوگل همه نامه‌هایی به قانون‌گذاران کالیفرنیا ارسال کرده‌اند که نگرانی‌های خود را در مورد SB-1047 بیان کرده‌اند و بر نیاز به رویکردی محتاطانه‌تر برای جلوگیری از ممانعت از رشد فناوری‌های هوش مصنوعی تاکید کرده‌اند.

ببینید: OpenAI، مایکروسافت، و Adobe لایحه واترمارکینگ هوش مصنوعی کالیفرنیا را برمی‌گردانند

سام آلتمن، مدیر عامل OpenAI، پس از اعلام روز پنجشنبه در مورد توافق شرکتش با AISI ایالات متحده، ارسال شده در X او احساس می کرد که “مهم است که این اتفاق در سطح ملی بیفتد.” برخلاف یک یادداشت تفاهم داوطلبانه، نقض قوانین در سطح ایالت منجر به مجازات خواهد شد.

در همین حال، موسسه ایمنی هوش مصنوعی بریتانیا با چالش های مالی روبرو است

از زمان انتقال از رهبری محافظه کار به حزب کارگر در اوایل ژوئیه، دولت بریتانیا یک سری تغییرات قابل توجه در رویکرد خود نسبت به هوش مصنوعی ایجاد کرده است.

اسقاط کرده است دفتری که قرار بود در سانفرانسیسکو راه اندازی شود تابستان امسال، با توجه به رویترز منابعی که برای تقویت روابط بین بریتانیا و غول‌های هوش مصنوعی منطقه خلیج تبلیغ شده‌اند. پیتر کایل، وزیر فناوری، همچنین نیترشان راجکومار، مشاور ارشد سیاستگذاری و یکی از بنیانگذاران AISI بریتانیا را برکنار کرد.

ببینید: دولت بریتانیا 32 میلیون پوند برای پروژه های هوش مصنوعی پس از حذف بودجه برای ابررایانه ها اعلام کرد.

منابع رویترز افزودند که کایل قصد دارد سرمایه گذاری مستقیم دولت در این صنعت را کاهش دهد. در واقع، اوایل این ماه، دولت بودجه 1.3 میلیارد پوندی را کنار گذاشت که برای هوش مصنوعی و نوآوری در فناوری در نظر گرفته شده بود.

در ماه ژوئیه، صدراعظم ریچل ریوز گفت که هزینه های عمومی در مسیر کاهش قرار دارد بیش از 22 میلیارد پوند بودجه و بلافاصله 5.5 میلیارد پوند از کاهش، از جمله صندوق فرصت های سرمایه گذاری، که از پروژه ها در بخش های دیجیتال و فناوری حمایت می کرد، اعلام کرد.

چند روز قبل از سخنرانی صدراعظم، حزب کارگر مت کلیفورد، کارآفرین فناوری منصوب شد برای توسعه «برنامه اقدام فرصت‌های هوش مصنوعی»، که مشخص می‌کند چگونه هوش مصنوعی می‌تواند به بهترین شکل در سطح ملی برای افزایش کارایی و کاهش هزینه‌ها مهار شود. توصیه های او قرار است در ماه سپتامبر منتشر شود.

به گفته منابع رویترز، هفته گذشته، کلیفورد با ده نماینده از شرکت‌های سرمایه‌گذاری مخاطره‌آمیز ملاقاتی داشت تا درباره این طرح، از جمله اینکه چگونه دولت می‌تواند هوش مصنوعی را برای بهبود خدمات عمومی، حمایت از شرکت‌های اسپین‌آوت دانشگاه‌ها، و تسهیل کار استارت‌آپ‌ها اتخاذ کند، گفتگو کرد. استخدام بین المللی

اما پشت صحنه به هیچ وجه آرام نیست، زیرا یکی از حاضران به رویترز گفت که آنها “تاکید می کنند که فقط یک ماه فرصت دارند تا بررسی را برگردانند.”



منبع: https://www.techrepublic.com/article/openai-anthropic-us-government/

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *