گزارش جدیدی که توسط دولت انگلستان منتشر شده است می گوید که مدل O3 Openai در یک آزمایش استدلال انتزاعی به موفقیت رسیده است که بسیاری از کارشناسان فکر می کردند “از دسترس خارج” هستند. این نشانگر سرعت است که تحقیقات AI در حال پیشرفت است ، و این که سیاست گذاران به زودی ممکن است تصمیم بگیرند که آیا قبل از اینکه زمان جمع آوری مجموعه بزرگی از شواهد علمی وجود داشته باشد ، تصمیم بگیرند که مداخله کنند.
بدون چنین شواهدی ، نمی توان دانست که آیا پیشرفت خاص هوش مصنوعی یک خطر را ارائه می دهد یا خواهد کرد. نویسندگان این گزارش نوشتند: “این یک تجارت ایجاد می کند.” “اجرای اقدامات پیشگیرانه یا کاهش زودرس ممکن است غیر ضروری باشد ، اما انتظار برای شواهد قطعی می تواند جامعه را در معرض خطرات ناشی از ظهور به سرعت قرار دهد.”
در تعدادی از آزمایشات برنامه نویسی ، استدلال انتزاعی و استدلال علمی ، مدل O3 Openai عملکرد بهتری نسبت به “هر مدل قبلی” و “بسیاری از کارشناسان انسانی (اما نه همه)” انجام داده است ، اما در حال حاضر هیچ نشانه ای از مهارت آن با کارهای دنیای واقعی وجود ندارد.
ببینید: Openai توجه خود را به سرپرستی در سال 2025 تغییر می دهد
گزارش ایمنی هوش مصنوعی توسط 96 متخصص جهانی گردآوری شده است
O3 Openai به عنوان بخشی از گزارش ایمنی بین المللی هوش مصنوعی، که توسط 96 کارشناس جهانی هوش مصنوعی جمع شده بود. هدف خلاصه کردن تمام ادبیات موجود در مورد خطرات و توانایی های سیستم های پیشرفته هوش مصنوعی برای ایجاد یک درک مشترک است که می تواند از تصمیم گیری دولت پشتیبانی کند.
شرکت کنندگان در اولین اجلاس ایمنی هوش مصنوعی در سال 2023 موافقت کرد که با امضای اعلامیه بلتچلی در مورد ایمنی هوش مصنوعی ، چنین تفاهم برقرار کند. گزارش موقت در ماه مه 2024 منتشر شد ، اما این نسخه کامل قرار است در اجلاس اقدام AI پاریس در اواخر این ماه ارائه شود.
نتایج تست برجسته O3 همچنین تأیید می کند که مدل های ساده سازی با قدرت محاسباتی بیشتر عملکرد آنها را بهبود می بخشند و به آنها امکان مقیاس می دهند. با این حال ، محدودیت هایی مانند در دسترس بودن داده های آموزش وجود دارد ، تراشهوت انرژی، و همچنین هزینهبشر
ببینید: کمبود برق رشد مرکز غرفه در انگلستان ، اروپا
آزادی Deepseek-R1 ماه گذشته امیدهایی را افزایش داد که می توان قیمت قیمت را پایین آورد. آزمایشی که بیش از 370 دلار با مدل O1 Openai هزینه داشته باشد ، با R1 کمتر از 10 دلار هزینه خواهد داشت. ذاتبشر
وی گفت: “قابلیت های هوش مصنوعی با هدف عمومی در سالهای و ماههای اخیر به سرعت افزایش یافته است. در حالی که این پتانسیل بزرگی برای جامعه دارد. “یوشوا بنگیو ، صندلی گزارش و برنده جایزه تورینگ ، در یک مطبوعاتبشر “هوش مصنوعی همچنین خطرات قابل توجهی را ارائه می دهد که باید توسط دولت ها در سراسر جهان با دقت اداره شود.”
گزارش ایمنی بین المللی هوش مصنوعی ، تعداد فزاینده ای از موارد استفاده از هوش مصنوعی را برجسته می کند
براساس این گزارش ، در حالی که قابلیت های هوش مصنوعی به سرعت در حال پیشرفت هستند ، مانند O3 ، این امکان وجود دارد که از آنها برای اهداف مخرب استفاده شود.
برخی از این موارد استفاده کاملاً مشخص شده است ، مانند کلاهبرداریبا تعصب، نادرستی ها ، و نقض حریم خصوصیبه گفته نویسندگان خبره ، “تاکنون هیچ ترکیبی از تکنیک ها نمی تواند آنها را به طور کامل برطرف کند.”
سایر موارد استفاده ناخوشایند هنوز در حال رشد هستند و متخصصان در مورد اینکه آیا این دهه یا سالها تا زمانی که به یک مشکل مهم تبدیل شود ، اختلاف نظر دارند. اینها شامل مقیاس بزرگ است ضررهای شغلی، حملات سایبری با قابلیت AI ، حملات بیولوژیکی و جامعه از دست دادن کنترل سیستم های هوش مصنوعی.
نویسندگان گفتند که از زمان انتشار گزارش موقت در ماه مه 2024 ، هوش مصنوعی در برخی از این حوزه ها توانایی بیشتری پیدا کرده است. به عنوان مثال ، محققان مدلهایی ساخته اند که “قادر به یافتن و بهره برداری از برخی از آسیب پذیری های امنیت سایبری به تنهایی هستند و با کمک انسانی ، کشف می کنند آسیب پذیری قبلاً ناشناخته در نرم افزار گسترده استفاده شده. “
ببینید: GPT-4 Openai می تواند به طور خودمختار 87 ٪ از آسیب پذیری های یک روزه را سوء استفاده کند.
پیشرفت در قدرت استدلال مدل های هوش مصنوعی به این معنی است که آنها می توانند با هدف ایجاد سلاح های بیولوژیکی “به تحقیق در مورد عوامل بیماری زا” کمک کنند. آنها می توانند “دستورالعمل های فنی گام به گام” ایجاد کنند که “از برنامه های نوشته شده توسط متخصصان با دکتری و اطلاعات سطحی که متخصصان برای یافتن آنلاین تلاش می کنند ، پیشی بگیرند.”
با پیشرفت هوش مصنوعی ، اقدامات کاهش خطر مورد نیاز ما نیز انجام دهید
متأسفانه ، این گزارش دلایل زیادی را نشان می دهد که کاهش خطرات فوق الذکر به ویژه چالش برانگیز است. اول ، مدل های هوش مصنوعی موارد استفاده “غیرمعمول گسترده” دارند و باعث می شود همه خطرات ممکن کاهش یابد و به طور بالقوه امکان بیشتری برای راه حل ها فراهم شود.
توسعه دهندگان تمایل دارند که نحوه عملکرد مدل های خود را به طور کامل درک نکنند ، و اطمینان از امنیت کامل آنها را سخت تر می کند. در علاقه رو به رشد به نمایندگان هوش مصنوعی – یعنی سیستمهایی که به صورت خودمختار عمل می کنند – خطرات جدیدی را ارائه می دهند که محققان برای مدیریت آماده نیستند.
ببینید: اپراتور: قدم بعدی Openai به سمت آینده “عامل”
چنین خطرات ناشی از این است که کاربر از آنچه عوامل هوش مصنوعی خود انجام می دهند ، آگاه باشد ، توانایی ذاتی آنها در کار در خارج از کنترل کاربر و تعامل بالقوه AI-to-AID است. این عوامل باعث می شود عوامل AI نسبت به مدل های استاندارد کمتر قابل پیش بینی باشند.
چالش های کاهش ریسک صرفاً فنی نیست. آنها همچنین عوامل انسانی را درگیر می کنند. شرکت های هوش مصنوعی غالباً جزئیات مربوط به نحوه کار مدل های خود از تنظیم کننده ها و محققان شخص ثالث را برای حفظ یک حاشیه رقابتی و جلوگیری از سقوط اطلاعات حساس به دست هکرها خودداری می کنند. این عدم شفافیت ، توسعه حفاظت های مؤثر را سخت تر می کند.
علاوه بر این ، فشار برای نوآوری و ماندن در برابر رقبا ممکن است “شرکت ها را برای سرمایه گذاری زمان کمتری یا منابع دیگر در مدیریت ریسک نسبت به آنچه که در غیر این صورت است ، تحریک کند.”
در ماه مه 2024 ، تیم ایمنی Superintelligence Openai منحل شد و چندین پرسنل ارشد در میان نگرانی هایی که “فرهنگ ایمنی و فرآیندها پشت پرده به محصولات براق گرفته اند. “
با این حال ، این همه عذاب و غم و اندوه نیست. این گزارش با بیان اینکه تجربه مزایای پیشرفته هوش مصنوعی و تسخیر خطرات آن به طور متقابل منحصر به فرد نیست ، نتیجه می گیرد.
نویسندگان نوشتند: “این عدم اطمینان می تواند سرنوشت گرایی را برانگیخته و هوش مصنوعی را به عنوان اتفاقی که برای ما رخ می دهد ظاهر شود.”
“اما این تصمیمات جوامع و دولت ها در مورد چگونگی پیمایش در این عدم اطمینان است که تعیین می کند کدام مسیر را طی خواهیم کرد.”
منبع: https://www.techrepublic.com/article/uk-international-ai-safety-report/