یوشوا بنجیو، برنده جایزه تورینگ و پیشگام یادگیری عمیق، به آن پیوست هوش مصنوعی محافظت شده به عنوان مدیر علمی
هدف ابتکار مورد حمایت دولت بریتانیا توسعه یک سیستم هوش مصنوعی است که قادر به نظارت و کاهش خطرات ناشی از سایر عوامل هوش مصنوعی است و به طور موثر یک “دروازه بان” برای ایمنی هوش مصنوعی ایجاد می کند.
سیستم دروازهبان میتواند به صورت فرضی، تعاملات عامل هوش مصنوعی مستقل را نظارت و درک کند، و اطمینان حاصل کند که آنها فقط در نردههای حفاظتی تنظیم شده عمل میکنند.
الف پایان نامه این گروه نشان میدهد که سیستم دروازهبان «نه تنها خطرات هوش مصنوعی مرزی را کاهش میدهد و استفاده از آن در برنامههای کاربردی حیاتی را امکانپذیر میسازد، بلکه در برنامههای حیاتی تجاری و فعالیتهای تجاری که قابلیت اطمینان در آنها کلیدی است، جنبه مثبت هوش مصنوعی مرزی را نیز باز میکند.
هوش مصنوعی Safeguarded 75 میلیون دلار سرمایه گذاری قابل توجهی از آژانس تحقیقات و اختراعات پیشرفته دولت بریتانیا دریافت کرده است که برای چهار سال آینده حمایت مالی می کند.
اکنون یکی از بزرگترین نام ها در هوش مصنوعی دارد که به آن کمک می کند.
این گروه گفت که Bengio “مشاوره های علمی و استراتژیک” را به مدیر برنامه دیوید “داویداد” Dalrymple و تیم گسترده تر Safeguarded ارائه خواهد کرد.
دالریمپل گفت: «هر بار که یوشوا و من فرصت تبادل ایدههای فنی را به دست میآوریم، برنامههای تحقیق و توسعه ما به طور فزایندهای به هم نزدیک میشوند – و تا جایی که هنوز با هم تفاوت دارند، اکنون هر دو میخواهیم هر دو را دنبال کنیم.»
Bengio در سال 2018 جایزه تورینگ را که معمولاً به عنوان “جایزه نوبل محاسبات” شناخته میشود، در کنار دیگر پدرخواندههای هوش مصنوعی جفری هینتون و یان لکون برای کارهای پیشگامانه بر روی شبکههای عصبی عمیق دریافت کرد.
Bengio یکی از محتاط ترین محققان این سه نفر در مورد ایمنی هوش مصنوعی خواهد بود.
در حالی که به عنوان یک مشاور ریشی سوناک، نخست وزیر سابق بریتانیا در مورد ایمنی هوش مصنوعی، Bengio اخیراً به فراخوان ها پیوسته است مقررات جهانی هوش مصنوعی برای تمرکز بر محدود کردن محاسبات به جای ایجاد محدودیت برای نرم افزار.
او از آن زمان به همراه داویداد و دیگران این مقاله را نوشت و پیشنهاد ایجاد خانواده ای از رویکردهای ایمنی هوش مصنوعی به نام “هوش مصنوعی ایمن تضمین شده”
هدف تضمینشده هوش مصنوعی ایمن ارائه ضمانتهای ایمنی دقیق و با اطمینان بالا برای سیستمهای هوش مصنوعی بهویژه سیستمهایی با استقلال بالا یا آنچه برخی ممکن است به عنوان هوش مصنوعی عمومی (AGI) توصیف کنند، و همچنین سیستمهایی که در زمینههای ایمنی حیاتی استفاده میشوند، ارائه میکند.
به سه جزء ضروری نیاز دارد:
یک مدل جهانی: توصیفی ریاضی از نحوه تأثیر سیستم هوش مصنوعی بر دنیای خارج، که هم عدم قطعیت بیزی و هم نایتی را به حساب می آورد.
مشخصات ایمنی: توصیف ریاضی از تأثیراتی که قابل قبول در نظر گرفته می شوند.
یک تایید کننده: برای ارائه یک گواهی اثبات قابل بازرسی مبنی بر اینکه هوش مصنوعی با مشخصات ایمنی نسبت به مدل جهانی مطابقت دارد.
Bengio، davidad و سایر محققین Safeguarded پیشنهاد میکنند که این رویکرد به طور بالقوه میتواند تضمینهای ایمنی عملی را ایجاد کند و در عین حال با سیستمهای هوش مصنوعی که فاقد چنین تضمینهایی هستند رقابتی باقی بماند. آنها رویکردهای مختلف در چارچوب هوش مصنوعی GS را به عنوان تلاش های تحقیق و توسعه تکمیلی می بینند که مجموعه ای از استراتژی ها را برای تضمین ایمنی هوش مصنوعی تشکیل می دهد.
علاوه بر افزودن Bengio، پروژه Safeguarded همچنین فراخوان بودجه خود را برای سازمانهای بالقوه علاقهمند به استفاده از سیستم هوش مصنوعی دروازهبان برای محافظت از محصولات خود راهاندازی کرده است.
Safeguarded میخواهد این ابزار را برای برنامههای خاص دامنه، یعنی برای بهینهسازی شبکههای انرژی، آزمایشهای بالینی یا شبکههای مخابراتی اعمال کند.
مشاغل تا 2 اکتبر فرصت دارند اعمال شود.