هدف کوانتوم برای تفسیر مدل های زبان بزرگ است


تحقیقات جدید نشان داده است که هوش مصنوعی کوانتومی می‌تواند نشان دهد که چگونه مدل‌های زبان بزرگی که چت ربات‌هایی مانند ChatGPT را تقویت می‌کنند، به پاسخ‌های خود می‌رسند.

تفسیرپذیری یکی از پایه‌های هوش مصنوعی مسئول است، اما بسیاری از سیستم‌ها اساساً «جعبه‌های سیاه» هستند، به این معنی که کاربران نمی‌توانند بفهمند که هوش مصنوعی چگونه پاسخ‌های اشتباه تولید می‌کند و آنها را اصلاح می‌کند.

محققان کوانتینیوم منتشر کردند تحقیق کنید توصیف اینکه چگونه محاسبات کوانتومی را با هوش مصنوعی در پردازش زبان طبیعی کوانتومی سطح متن (QNLP) برای اولین بار ترکیب کردند تا هوش مصنوعی را قابل تفسیر کنند.

آنها یک مدل QNLP جدید به نام QDisCoCirc توسعه دادند که از آن برای انجام آزمایش‌هایی استفاده کردند که ثابت کرد می‌توان یک مدل را برای یک کامپیوتر کوانتومی به روشی قابل تفسیر و مقیاس‌پذیر برای کارهای مبتنی بر متن آموزش داد.

این تیم «تفسیرپذیری ترکیبی» را هدف قرار داد، به این معنی که می‌تواند به اجزای یک مدل معنایی انسان‌پسند اختصاص دهد تا بفهمد که چگونه با هم تطابق دارند.

این باعث می‌شود درک نحوه تولید پاسخ‌ها توسط مدل‌های هوش مصنوعی شفاف باشد که برای برنامه‌هایی مانند مراقبت‌های بهداشتی، مالی، داروسازی و امنیت سایبری ضروری است. هوش مصنوعی به طور فزاینده ای تحت نظارت قانونی و دولتی است تا اطمینان حاصل شود که رفتار اخلاقی دارد و پاسخ های آن قابل توضیح است.

کوانتینیوم آن را با استفاده از «تعمیم ترکیبی» مقیاس‌پذیر کرد، نمونه‌های کوچکی را در رایانه‌های کلاسیک آموزش داد و سپس نمونه‌های بزرگ‌تری را آزمایش کرد که رایانه‌های کلاسیک نمی‌توانند روی رایانه‌های کوانتومی شبیه‌سازی کنند.

مرتبط:به روز رسانی مدل OpenAI ChatGPT استدلال پیشرفته ای را ارائه می دهد

محققان در این مقاله می‌گویند: «ساختار ترکیبی به ما امکان می‌دهد جاسازی‌های کلمه‌ای را که مدل برای هر کلمه می‌آموزد، و همچنین نحوه تعامل آنها را بررسی و تفسیر کنیم». “این درک ما را از نحوه مقابله با تکلیف پرسش پاسخ بهبود می بخشد.”

این رویکرد ترکیبی همچنین از چالش‌های آموزش‌پذیری ناشی از مشکل «فلات بی‌ثمر» در QML معمولی جلوگیری می‌کند. اینجاست که با بزرگتر شدن سیستم، شیب نشان‌دهنده میزان مطابقت پیش‌بینی‌های یک مدل با داده‌های واقعی تقریباً کاملاً صاف می‌شود. این امر یافتن مسیر مناسب برای بهبود مدل را دشوار می کند.

روش جدید مدل های کوانتومی در مقیاس بزرگ را برای کارهای پیچیده کارآمدتر و مقیاس پذیرتر می کند.

محققان این را با استفاده از پردازنده کوانتومی یون به دام افتاده کوانتینووم H1-1 نشان دادند که به گفته آنها اولین اثبات اجرای مفهوم QNLP ترکیبی مقیاس پذیر است.

ایلاس خان، بنیانگذار و مدیر تولید Quantinuum، گفت: «اوایل تابستان امسال، ما یک مقاله فنی جامع منتشر کردیم که رویکردمان را در مورد هوش مصنوعی مسئول و ایمن ترسیم می‌کرد – سیستم‌هایی که واقعاً، بدون عذرخواهی و از نظر سیستمی شفاف و ایمن هستند.

مرتبط:ChatGPT به روز رسانی ادعاها قابلیت های استدلال. صنعت واکنش نشان می دهد

در آن کار، ما کارهای آزمایشی را پیش‌بینی کردیم که نشان می‌دهد و توضیح می‌دهد که چگونه این می‌تواند در مقیاس بر روی کامپیوترهای کوانتومی کار کند. من خوشحال و هیجان زده هستم که این مرحله بعدی را با جزئیات منتشر شده گسترده که اکنون نیز در مالکیت عمومی قرار دارد، به اشتراک می گذارم. پردازش زبان طبیعی در قلب LLM ها باقی می ماند و رویکرد ما همچنان به رویکرد بلندپروازانه ما ماده اضافه می کند و از نظر کار بر روی یک پشته کامل که از پردازنده کوانتومی تا برنامه های کاربردی از شیمی تا امنیت سایبری و هوش مصنوعی را گسترش می دهد، سطح آب را بیشتر گسترش می دهد.

این مقاله برای اولین بار در نشریه خواهر هوش مصنوعی منتشر شد، کوانتوم را وارد کنید.





منبع: https://aibusiness.com/nlp/quantum-aims-to-interpret-large-language-models