مجلس ایالتی کالیفرنیا در آخرین اقدام در حماسه تنظیم هوش مصنوعی در سراسر ایالت، قانون نوآوری ایمن و ایمن برای مدلهای هوش مصنوعی مرزی، که با نام SB-1047 نیز شناخته میشود، در 28 اوت به تصویب رساند. دریافت کرد 48 بله و 16 نه.
سنای ایالت هنوز باید این لایحه را قبل از اینکه به فرماندار گاوین نیوسام برسد، تصویب کند، که می تواند آن را امضا کند یا تا 30 سپتامبر آن را وتو کند.
SB-1047 چیست؟
SB-1047 که به صورت محاوره ای به عنوان قانون هوش مصنوعی کالیفرنیا شناخته می شود و به دلیل احتمال ایجاد سابقه ای برای قوانین ایالتی در مورد هوش مصنوعی مولد از نزدیک در سراسر کشور نظارت می شود، چندین قانون را برای توسعه دهندگان هوش مصنوعی در سیلیکون ولی تعیین می کند:
- پروتکل های ایمنی و امنیتی را برای مدل های تحت پوشش هوش مصنوعی ایجاد کنید.
- اطمینان حاصل کنید که چنین مدل هایی می توانند به طور کامل خاموش شوند.
- جلوگیری از توزیع مدلهایی که قابلیت آنچه را که این قانون بهعنوان «آسیب بحرانی» تعریف میکند، داشته باشد.
- برای اطمینان از رعایت این قانون، حسابرس را حفظ کنید.
به طور خلاصه، این لایحه چارچوبی را ارائه می دهد که مانع می شود مدل های مولد هوش مصنوعی از ایجاد آسیب در مقیاس بزرگ به بشریت، از جمله از طریق جنگ هسته ای یا سلاح های زیستی، یا از ایجاد خسارت بیش از 500 میلیون دلار از طریق یک رویداد امنیت سایبری.
این قانون «مدلهای تحت پوشش» را بهعنوان مدلهایی تعریف میکند که از قدرت محاسباتی بیشتر از 10^26 عملیات اعداد صحیح یا ممیز شناور استفاده میکنند – که هزینه آنها در طول آموزش از 100 میلیون دلار فراتر میرود.
نسخه اخیر قانون شامل ورودی از Anthropic است
نسخه لایحه ای که روز پنجشنبه تصویب شد شامل تغییراتی بود که توسط سازنده هوش مصنوعی Anthropic پیشنهاد شده بود و توسط سناتور اسکات وینر، نویسنده لایحه اولیه، سناتور اسکات وینر، D-Calif پذیرفته شد.
آنتروپیک با موفقیت از ایالت درخواست کرد که زبان را از این لایحه حذف کند و گفت که شرکت هایی که این قانون را نقض می کنند می توانند از سوی دادستان کل ایالت تحت پیگرد قانونی قرار گیرند. جدیدترین نسخه نیاز شرکتها به افشای نتایج تست ایمنی را با تهدید شهادت دروغ از بین میبرد. در عوض، توسعه دهندگان باید اظهاراتی را ارسال کنند که وزن قانونی یکسانی ندارند.
سایر تغییرات عبارتند از:
- تغییر عبارت از شرکتهای هوش مصنوعی که باید «تضمین معقول» ایمنی را به «مراقبت معقول» ارائه کنند.
- استثنایی که در آن محققان هوش مصنوعی که کمتر از 10 میلیون دلار برای تنظیم دقیق یک مدل پوششدهی شده منبع باز هزینه میکنند، توسعهدهندگان آن مدل محسوب نمیشوند.
ببینید: Anthropic و OpenAI دارند حفاری خود را انجام دادند در مورد اینکه چگونه هوش مصنوعی مولد محتوا از جمله محتوای مغرضانه ایجاد می کند.
این لایحه دیگر خواستار ایجاد یک بخش مدل مرزی، آژانسی برای نظارت بر صنعت هوش مصنوعی نیست. در عوض، هیئتی از مدلهای مرزی با تمرکز بر راهنماییهای آیندهنگر ایمنی و ممیزی در آژانس عملیات دولتی فعلی تشکیل خواهد شد.
در حالی که آنتروپیک به این لایحه کمک کرد، سازمان های بزرگ دیگری مانند گوگل و متا مخالفت خود را اعلام کردند. Andreessen Horowitz، یک شرکت سرمایه گذاری خطرپذیر معروف به a16z که پشت بسیاری از استارتاپ های هوش مصنوعی است. با صدای بلند مخالفت کرد SB-1047.
چرا SB-1047 بحث برانگیز است؟
برخی از نمایندگان صنعت و کنگره می گویند این قانون نوآوری را محدود می کند و کار با مدل های AI منبع باز را به ویژه دشوار می کند. از جمله منتقدان این لایحه، یکی از بنیانگذاران و مدیر عامل شرکت Hugging Face بود کلمنت دلانگ، همانطور که توسط شرکت سریع.
OpenAI، متا، و گوگل همچنین نامههایی به قانونگذاران کالیفرنیا نوشته و نگرانیهای خود را در مورد SB-1047 ابراز کرده و بر نیاز به رویکرد محتاطانهتر برای جلوگیری از ممانعت از رشد فناوریهای هوش مصنوعی تاکید کردهاند.
مطالعه آوریل توسط اتاق فکر طرفدار مقررات موسسه سیاست هوش مصنوعی دریافتند که اکثر کالیفرنیاییها به حمایت از این لایحه در آن زمان رای دادند و 70 درصد موافق بودند که «مدلهای قدرتمند هوش مصنوعی آینده ممکن است برای مقاصد خطرناک استفاده شوند».
محققان جفری هینتون و یوشوا بنجیو که به دلیل کار پیشگامانه خود در زمینه یادگیری عمیق به عنوان «پدرخوانده های هوش مصنوعی» شناخته می شوند، علناً از این لایحه نیز حمایت می کنند. بنژیو در نوشت: این عمل از مردم محافظت خواهد کرد یک نوشته در فورچون در 15 آگوست.
در اوایل این هفته، ایلان ماسک به X برد بیان کند که احساس می کند این لایحه باید تصویب شود. او در این پست نوشت: «بیش از 20 سال است که من مدافع مقررات هوش مصنوعی بودهام، همانطور که هر محصول/تکنولوژی را که خطری بالقوه برای عموم است، تنظیم میکنیم.»
دو کارمند سابق OpenAI نیز یک مطلب را نوشتند نامه به Newsom که از کارفرمای سابق خود به دلیل مخالفت با SB-1047 انتقاد می کند.
آنها نوشتند: «OpenAI حتی با الزامات بسیار سبک در SB1047 مخالف است، که OpenAI ادعا میکند به طور داوطلبانه به آنها متعهد میشود و سؤالاتی در مورد قدرت این تعهدات ایجاد میکند. OpenAI با “شخصیت نادرست” محققان مخالف است [their] موقعیت،” برای بیزینس اینسایدر
هشت تن از 52 عضو کنگره از کالیفرنیا امضا کردند یک نامه گفت که این اقدام “خطرات غیر ضروری برای اقتصاد کالیفرنیا با مزایای بسیار کمی برای امنیت عمومی ایجاد می کند.” آنها استدلال می کنند که برای ایجاد ارزیابی های استاندارد شده برای هوش مصنوعی خیلی زود است، زیرا سازمان های دولتی مانند NIST هنوز روی ایجاد این استانداردها کار می کنند.
آنها پیشنهاد می کنند که تعریف آسیب حیاتی ممکن است گمراه کننده باشد، و می گویند این لایحه با تمرکز بر بلایای بزرگ مقیاس مانند سلاح های هسته ای به بیراهه رفته است، در حالی که “به طور عمده خطرات هوش مصنوعی قابل اثبات مانند اطلاعات نادرست، تبعیض، عدم توافق را نادیده می گیرد. دیپ فیکاثرات زیست محیطی و جابجایی نیروی کار.»
SB-1047 شامل حفاظت ویژه برای افشاگران شرکت هوش مصنوعی تحت قانون حفاظت از افشاگران کالیفرنیا است.
این قانون چالش های ایجاد تعادل در مقررات و نوآوری را مطرح می کند
ما میتوانیم هم نوآوری و هم ایمنی را پیش ببریم. وینر در مقاله ای نوشت که این دو متقابلاً منحصر به فرد نیستند بیانیه عمومی در 15 اوت. «در حالی که اصلاحات 100 درصد از تغییرات درخواست شده توسط Anthropic – یک رهبر جهانی در زمینه نوآوری و ایمنی – را منعکس نمی کند، ما تعدادی از اصلاحات بسیار معقول پیشنهادی را پذیرفتیم، و من معتقدم که نگرانی های اصلی را برطرف کرده ایم. توسط Anthropic و بسیاری دیگر در صنعت بیان شده است.
وی خاطرنشان کرد که کنگره در مورد مقررات هوش مصنوعی «به بنبست» است، بنابراین «کالیفرنیا باید برای پیشرفتن از خطرات قابل پیشبینی ناشی از پیشرفت سریع هوش مصنوعی و در عین حال تقویت نوآوری اقدام کند».
منبع: https://www.techrepublic.com/article/california-ai-bill-2014/