Google DeepMind رویکرد جدیدی را برای تأمین امنیت AI Frontier Generative معرفی کرده است و مقاله ای را در تاریخ 2 آوریل منتشر کرده است. DeepMind با تمرکز بر دو مورد از چهار منطقه اصلی خطر آن: “سوء استفاده ، سوء استفاده ، اشتباهات و خطرات ساختاری”.
DeepMind به دنبال فراتر از AI فعلی Frontier به هوش عمومی مصنوعی (AGI) ، هوشمندی های سطح انسانی است که می تواند در مراقبت های بهداشتی و سایر صنایع متحول شود یا هرج و مرج تکنولوژیکی را تحریک کند. برخی شک و تردید در مورد اینکه آیا AGI از آن بزرگی وجود خواهد داشت ، وجود دارد.
ادعا می کند که AGI مانند انسان قریب الوقوع است و باید برای آن آماده شود ، یک استراتژی اعتیاد به مواد مخدره به همان اندازه قدیمی است Openai، که با بیانیه ماموریت مشابه در سال 2015 آغاز شد. اگرچه ممکن است وحشت از هوش مصنوعی بیش از حد ضروری نباشد ، تحقیقاتی مانند DeepMind به یک استراتژی گسترده تر و چند جانبه امنیت سایبری برای تولید هوش مصنوعی کمک می کند.
جلوگیری از سوء استفاده از بازیگران بد از سوء استفاده از AI
سوء استفاده و سوء استفاده از دو عامل خطر است که به صورت هدفمند بوجود می آیند: سوء استفاده شامل یک بازیگر تهدیدآمیز انسانی است ، در حالی که سوء استفاده از سناریوهایی را توصیف می کند که در آن هوش مصنوعی دستورالعمل هایی را به روش هایی که آن را به یک دشمن تبدیل می کند ، دنبال می کند. “اشتباهات” (خطاهای غیر عمدی) و “خطرات ساختاری” (مشکلات ناشی از آن ، شاید از مشوق های متناقض ، بدون بازیگر واحد) چارچوب چهار قسمتی را تکمیل می کند.
برای پرداختن به سوء استفاده ، DeepMind پیشنهاد می کند استراتژی های زیر:
- قفل کردن وزن مدل سیستم های پیشرفته AI
- انجام تحقیقات مدل سازی تهدید برای شناسایی مناطق آسیب پذیر
- ایجاد یک چارچوب ارزیابی امنیت سایبری متناسب با پیشرفته AI
- کاوش در مورد کاهش دیگر ، نامشخص
DeepMind اذعان می کند که سوء استفاده با هوش مصنوعی امروز – از عمیق تا کلاهبرداری های فیشینگ – اتفاق می افتد. آنها همچنین به گسترش اطلاعات نادرست ، دستکاری در برداشت های مردمی و “پیامدهای اجتماعی ناخواسته” به عنوان نگرانی های امروزی که در صورت تبدیل شدن به AGI می تواند به میزان قابل توجهی افزایش یابد ، استناد می کنند.
نگاه کنید به: Openai مطرح شده است 40 میلیارد دلار با ارزش 300 میلیارد دلاری این هفته ، اما مقداری از این پول به این سازمان می پردازد که سودآور است.
جلوگیری از انجام اقدامات ناخواسته به تنهایی
سوءاستفاده می تواند هنگامی اتفاق بیفتد که یک هوش مصنوعی قصد واقعی خود را از کاربران پنهان کند یا اقدامات امنیتی را به عنوان بخشی از یک کار دور کند. DeepMind نشان می دهد که “نظارت تقویت شده” – آزمایش خروجی هوش مصنوعی در برابر هدف مورد نظر خود – ممکن است چنین خطراتی را کاهش دهد. با این وجود ، اجرای این کار چالش برانگیز است. چه نوع موقعیت های نمونه باید یک AI آموزش دیده می شود؟ DeepMind هنوز در حال بررسی این سؤال است.
یک پیشنهاد شامل استقرار یک “مانیتور” است ، دیگری سیستم هوش مصنوعی که برای تشخیص اقداماتی که مطابق با اهداف DeepMind نباشد ، آموزش دیده است. با توجه به پیچیدگی هوش مصنوعی تولیدی ، چنین مانیتور برای تشخیص اقدامات قابل قبول و تشدید رفتار مشکوک برای بررسی انسان نیاز به آموزش دقیق دارد.
منبع: https://www.techrepublic.com/article/news-google-deepmind-safety-monitor-guardrails/