قانون بحث برانگیز هوش مصنوعی کالیفرنیا با اصلاحاتی از Anthropic پیش می رود


مجلس ایالتی کالیفرنیا در آخرین اقدام در حماسه تنظیم هوش مصنوعی در سراسر ایالت، قانون نوآوری ایمن و ایمن برای مدل‌های هوش مصنوعی مرزی، که با نام SB-1047 نیز شناخته می‌شود، در 28 اوت به تصویب رساند. دریافت کرد 48 بله و 16 نه.

سنای ایالت هنوز باید این لایحه را قبل از اینکه به فرماندار گاوین نیوسام برسد، تصویب کند، که می تواند آن را امضا کند یا تا 30 سپتامبر آن را وتو کند.

SB-1047 چیست؟

SB-1047 که به صورت محاوره ای به عنوان قانون هوش مصنوعی کالیفرنیا شناخته می شود و به دلیل احتمال ایجاد سابقه ای برای قوانین ایالتی در مورد هوش مصنوعی مولد از نزدیک در سراسر کشور نظارت می شود، چندین قانون را برای توسعه دهندگان هوش مصنوعی در سیلیکون ولی تعیین می کند:

  • پروتکل های ایمنی و امنیتی را برای مدل های تحت پوشش هوش مصنوعی ایجاد کنید.
  • اطمینان حاصل کنید که چنین مدل هایی می توانند به طور کامل خاموش شوند.
  • جلوگیری از توزیع مدل‌هایی که قابلیت آن‌چه را که این قانون به‌عنوان «آسیب بحرانی» تعریف می‌کند، داشته باشد.
  • برای اطمینان از رعایت این قانون، حسابرس را حفظ کنید.

به طور خلاصه، این لایحه چارچوبی را ارائه می دهد که مانع می شود مدل های مولد هوش مصنوعی از ایجاد آسیب در مقیاس بزرگ به بشریت، از جمله از طریق جنگ هسته ای یا سلاح های زیستی، یا از ایجاد خسارت بیش از 500 میلیون دلار از طریق یک رویداد امنیت سایبری.

این قانون «مدل‌های تحت پوشش» را به‌عنوان مدل‌هایی تعریف می‌کند که از قدرت محاسباتی بیشتر از 10^26 عملیات اعداد صحیح یا ممیز شناور استفاده می‌کنند – که هزینه آن‌ها در طول آموزش از 100 میلیون دلار فراتر می‌رود.

نسخه اخیر قانون شامل ورودی از Anthropic است

نسخه لایحه ای که روز پنجشنبه تصویب شد شامل تغییراتی بود که توسط سازنده هوش مصنوعی Anthropic پیشنهاد شده بود و توسط سناتور اسکات وینر، نویسنده لایحه اولیه، سناتور اسکات وینر، D-Calif پذیرفته شد.

آنتروپیک با موفقیت از ایالت درخواست کرد که زبان را از این لایحه حذف کند و گفت که شرکت هایی که این قانون را نقض می کنند می توانند از سوی دادستان کل ایالت تحت پیگرد قانونی قرار گیرند. جدیدترین نسخه نیاز شرکت‌ها به افشای نتایج تست ایمنی را با تهدید شهادت دروغ از بین می‌برد. در عوض، توسعه دهندگان باید اظهاراتی را ارسال کنند که وزن قانونی یکسانی ندارند.

سایر تغییرات عبارتند از:

  • تغییر عبارت از شرکت‌های هوش مصنوعی که باید «تضمین معقول» ایمنی را به «مراقبت معقول» ارائه کنند.
  • استثنایی که در آن محققان هوش مصنوعی که کمتر از 10 میلیون دلار برای تنظیم دقیق یک مدل پوشش‌دهی شده منبع باز هزینه می‌کنند، توسعه‌دهندگان آن مدل محسوب نمی‌شوند.

ببینید: Anthropic و OpenAI دارند حفاری خود را انجام دادند در مورد اینکه چگونه هوش مصنوعی مولد محتوا از جمله محتوای مغرضانه ایجاد می کند.

این لایحه دیگر خواستار ایجاد یک بخش مدل مرزی، آژانسی برای نظارت بر صنعت هوش مصنوعی نیست. در عوض، هیئتی از مدل‌های مرزی با تمرکز بر راهنمایی‌های آینده‌نگر ایمنی و ممیزی در آژانس عملیات دولتی فعلی تشکیل خواهد شد.

در حالی که آنتروپیک به این لایحه کمک کرد، سازمان های بزرگ دیگری مانند گوگل و متا مخالفت خود را اعلام کردند. Andreessen Horowitz، یک شرکت سرمایه گذاری خطرپذیر معروف به a16z که پشت بسیاری از استارتاپ های هوش مصنوعی است. با صدای بلند مخالفت کرد SB-1047.

چرا SB-1047 بحث برانگیز است؟

برخی از نمایندگان صنعت و کنگره می گویند این قانون نوآوری را محدود می کند و کار با مدل های AI منبع باز را به ویژه دشوار می کند. از جمله منتقدان این لایحه، یکی از بنیانگذاران و مدیر عامل شرکت Hugging Face بود کلمنت دلانگ، همانطور که توسط شرکت سریع.

OpenAI، متا، و گوگل همچنین نامه‌هایی به قانون‌گذاران کالیفرنیا نوشته و نگرانی‌های خود را در مورد SB-1047 ابراز کرده و بر نیاز به رویکرد محتاطانه‌تر برای جلوگیری از ممانعت از رشد فناوری‌های هوش مصنوعی تاکید کرده‌اند.

مطالعه آوریل توسط اتاق فکر طرفدار مقررات موسسه سیاست هوش مصنوعی دریافتند که اکثر کالیفرنیایی‌ها به حمایت از این لایحه در آن زمان رای دادند و 70 درصد موافق بودند که «مدل‌های قدرتمند هوش مصنوعی آینده ممکن است برای مقاصد خطرناک استفاده شوند».

محققان جفری هینتون و یوشوا بنجیو که به دلیل کار پیشگامانه خود در زمینه یادگیری عمیق به عنوان «پدرخوانده های هوش مصنوعی» شناخته می شوند، علناً از این لایحه نیز حمایت می کنند. بنژیو در نوشت: این عمل از مردم محافظت خواهد کرد یک نوشته در فورچون در 15 آگوست.

در اوایل این هفته، ایلان ماسک به X برد بیان کند که احساس می کند این لایحه باید تصویب شود. او در این پست نوشت: «بیش از 20 سال است که من مدافع مقررات هوش مصنوعی بوده‌ام، همانطور که هر محصول/تکنولوژی را که خطری بالقوه برای عموم است، تنظیم می‌کنیم.»

دو کارمند سابق OpenAI نیز یک مطلب را نوشتند نامه به Newsom که از کارفرمای سابق خود به دلیل مخالفت با SB-1047 انتقاد می کند.

آنها نوشتند: «OpenAI حتی با الزامات بسیار سبک در SB1047 مخالف است، که OpenAI ادعا می‌کند به طور داوطلبانه به آن‌ها متعهد می‌شود و سؤالاتی در مورد قدرت این تعهدات ایجاد می‌کند. OpenAI با “شخصیت نادرست” محققان مخالف است [their] موقعیت،” برای بیزینس اینسایدر

هشت تن از 52 عضو کنگره از کالیفرنیا امضا کردند یک نامه گفت که این اقدام “خطرات غیر ضروری برای اقتصاد کالیفرنیا با مزایای بسیار کمی برای امنیت عمومی ایجاد می کند.” آنها استدلال می کنند که برای ایجاد ارزیابی های استاندارد شده برای هوش مصنوعی خیلی زود است، زیرا سازمان های دولتی مانند NIST هنوز روی ایجاد این استانداردها کار می کنند.

آنها پیشنهاد می کنند که تعریف آسیب حیاتی ممکن است گمراه کننده باشد، و می گویند این لایحه با تمرکز بر بلایای بزرگ مقیاس مانند سلاح های هسته ای به بیراهه رفته است، در حالی که “به طور عمده خطرات هوش مصنوعی قابل اثبات مانند اطلاعات نادرست، تبعیض، عدم توافق را نادیده می گیرد. دیپ فیکاثرات زیست محیطی و جابجایی نیروی کار.»

SB-1047 شامل حفاظت ویژه برای افشاگران شرکت هوش مصنوعی تحت قانون حفاظت از افشاگران کالیفرنیا است.

این قانون چالش های ایجاد تعادل در مقررات و نوآوری را مطرح می کند

ما می‌توانیم هم نوآوری و هم ایمنی را پیش ببریم. وینر در مقاله ای نوشت که این دو متقابلاً منحصر به فرد نیستند بیانیه عمومی در 15 اوت. «در حالی که اصلاحات 100 درصد از تغییرات درخواست شده توسط Anthropic – یک رهبر جهانی در زمینه نوآوری و ایمنی – را منعکس نمی کند، ما تعدادی از اصلاحات بسیار معقول پیشنهادی را پذیرفتیم، و من معتقدم که نگرانی های اصلی را برطرف کرده ایم. توسط Anthropic و بسیاری دیگر در صنعت بیان شده است.

وی خاطرنشان کرد که کنگره در مورد مقررات هوش مصنوعی «به بن‌بست» است، بنابراین «کالیفرنیا باید برای پیش‌رفتن از خطرات قابل پیش‌بینی ناشی از پیشرفت سریع هوش مصنوعی و در عین حال تقویت نوآوری اقدام کند».



منبع: https://www.techrepublic.com/article/california-ai-bill-2014/