ChatGPT به روز رسانی ادعاها قابلیت های استدلال. صنعت واکنش نشان می دهد


OpenAI اخیرا پیش نمایشی از آن منتشر شده است مدل جدید هوش مصنوعی، o1، به کاربران ChatGPT. این شرکت که برای تکمیل وظایف پیچیده تر و حل مسائل سخت تر در علوم، برنامه نویسی و ریاضی طراحی شده است، ادعاهای جسورانه ای در مورد توانایی خود در تفکر و استدلال کرده است.

در اینجا چیزی است که نمایندگان صنعت در مورد اینکه آیا o1 که در توسعه با نام Strawberry شناخته می شود، واقعاً نشان دهنده جهش بعدی در هوش مصنوعی مولد است یا خیر، می گویند.

مت حسن، مدیرعامل، airRESULTS

مدل o1 ترکیبی از یادگیری تقویتی عمیق، زنجیره فکر (CoT) و رویکرد “درخت افکار” است که آن را به یک گام مهم رو به جلو در استدلال هوش مصنوعی تبدیل می کند. در حالی که کاملاً مانند یک انسان “فکر می کند” نیست، قابلیت های حل مسئله ساختار یافته آن چشمگیر است.

در طول آزمایش، O1 به طور قابل توجهی توهمات کمتری نسبت به مدل های قبلی نشان داد، به ویژه در کارهایی که نیاز به دقت واقعی دارند. این امر قابلیت اطمینان o1 را برای کارهایی که اطلاعات دقیق در آنها حیاتی است، افزایش می دهد.

ظرفیت مدل o1 برای استدلال با داده ها، رویکرد سازگارتر و هوشمندانه تری برای اعتبارسنجی، به ویژه در زمینه های حساس مانند مراقبت های بهداشتی، ارائه می دهد.

الی ایتزاکی، مدیرعامل و موسس کیزو

عباراتی مانند “فکر کردن” و “استدلال” چشمگیر به نظر می رسند، اما آنها واقعاً آنچه را که در زیر کاپوت اتفاق می افتد منعکس نمی کنند. مدل‌های هوش مصنوعی مانند ChatGPT از طریق الگوریتم‌های پیچیده‌ای عمل می‌کنند که پاسخ‌ها را بر اساس الگوهای موجود در داده‌هایی که روی آن‌ها آموزش دیده‌اند، پیش‌بینی می‌کنند. آنها مکالمه ای شبیه به انسان را بدون درک یا تجربه چیزی شبیه سازی می کنند. این بیشتر در مورد تشخیص الگوی پیشرفته است تا شناخت واقعی.

مرتبط:بن بست ادغام

برای کسب‌وکارها، این بدان معناست که هوش مصنوعی می‌تواند برای کارهای خاص، مانند پاسخ دادن به سؤالات مشترک مشتریان یا تولید ایده‌های محتوا، عالی باشد، اما قادر به اتخاذ تصمیم‌های ظریفی نیست که به درک واقعی یا همدلی نیاز دارد. به‌روزرسانی ممکن است توانایی مدل را در قانع‌کننده‌تر به نظر رسیدن بهبود بخشد، اما ما نباید آن را با استدلال واقعی انسانی اشتباه بگیریم.

این سوال که آیا این “خطرناک ترین” هوش مصنوعی تا به امروز است یا خیر، موضوعی است. خطر واقعی در برآورد بیش از حد آنچه فناوری می تواند انجام دهد و استفاده از آن در سناریوهایی است که تماس انسان هنوز ضروری است.

Ed Charbeneau، مدافع اصلی توسعه دهنده، Progress

در حالی که مدل جدید o1 چشمگیر است و ویژگی های تفکر عمیق را نشان می دهد، خود مدل اراده، آگاهی یا حافظه مستقلی ندارد. مدل نمی‌تواند خارج از چارچوب دستوری که داده شده «فکر کند». توانایی های استدلال مدل چشمگیر است و شبیه انسان به نظر می رسد، اما همچنان در دسته ربات های چت یا استدلال محدود قرار می گیرد.

مرتبط:بینش از چرخه هایپ گارتنر برای هوش مصنوعی

سری جدید مدل های هوش مصنوعی o1 برای کارهای چند عملیاتی سنگین مانند ریاضی، علوم و کدنویسی ساخته شده است. مدل‌های قبلی به یک درخواست با اولین پاسخی که ایجاد می‌کرد پاسخ می‌دادند که منجر به توهم می‌شد، گاهی اوقات با خطاهای منطقی ساده.

مدل‌های سری o1 برای پاک کردن خطاهای منطقی با تقسیم وظایف دشوار به مراحل کوچک‌تر به نام «زنجیره فکر» طراحی شده‌اند. خلاصه زنجیره فکر را می توان برای درک فرآیندهای حل مسئله مورد استفاده مدل برای رسیدن به پاسخ نهایی نشان داد. با استفاده از یک زنجیره فکری، مدل زمان و محاسبات بیشتری را برای حل یک مسئله و در عین حال دقیق‌تر می‌گیرد و در نتیجه توهم کمتری را نشان می‌دهد.

استیو ویلسون، CPO در Exabeam

بزرگترین نکته از O1 OpenAI توانایی آن در توضیح استدلال آن است. مدل جدید o1 از استدلال گام به گام استفاده می کند، نه اینکه صرفاً بر منطق «نشان بعدی» تکیه کند. به عنوان مثال، من یک معما برای o1 مطرح کردم و از آن پرسیدم: “چه چیزی 18 پا دارد و مگس ها را می گیرد؟” پاسخ داد: «یک تیم بیسبال. یک تیم بیسبال 9 بازیکن در زمین دارد که مجموعاً 18 پا دارند و آنها «مگس‌ها» را می‌گیرند – که توپ‌های پروازی هستند که توسط تیم مقابل اصابت می‌کند. اما آنچه جالب است این است که اکنون نمادی وجود دارد که می توانید روی آن کلیک کنید تا ببینید o1 چگونه فکر می کند!

این ویژگی جدید به کاربر نشان می دهد که چگونه به نتیجه رسیده است. در این مورد، روند فکری خود را برای “مطرح کردن به تحقیق”، “رمزگشایی معما” و “وزن زدن تیم بیسبال” بیان کرد. مفهوم توضیح پذیری همیشه یک موضوع بزرگ و یک چالش بزرگ برای برنامه های کاربردی مبتنی بر یادگیری ماشین بوده است. این به نظر یک گام بزرگ به جلو است.

این یک انتشار هیجان انگیز است. چیزی که در مورد آزمایش اولیه من هیجان انگیز است این نیست که در معیارها امتیاز بهتری کسب می کند، بلکه سطحی از توضیح را ارائه می دهد که هرگز در مدل های تولیدی AI/LLM وجود نداشته است. توهمات محدودیت اصلی در اتخاذ این مدل ها برای بسیاری از موارد استفاده بوده است. این یک راه رو به جلو را نشان می دهد.

افرادی که می گویند OpenAI پیشرفت کرده است، روی عملکرد مدل های پیش بینی توکن بعدی متمرکز شده اند، اما در حال سرمایه گذاری بر روی جهش های کوانتومی در حوزه هایی پیرامون استدلال و تعامل صوتی است – که قفل بسیاری از موارد استفاده جدید را باز می کند. هنگامی که شما شروع به ترکیب این مدل‌های استدلال با مدل‌های بینایی چندوجهی و تعامل صوتی می‌کنید، در ۱۲ ماه آینده شاهد یک تغییر اساسی خواهیم بود. کلاه خود را نگه دارید هیجان انگیز خواهد بود!

Jean-Louis Quéguiner، بنیانگذار و مدیر عامل Gladia

آخرین تکرار مدل GPT-o1 OpenAI علاقه قابل توجهی را ایجاد کرده است، اما با تجزیه و تحلیل دقیق تر، ممکن است آنطور که بسیاری انتظار دارند، پیشگامانه و “خطرناک” نباشد.

GPT-o1 چیزی نیست که ما معمولاً یک مدل پایه در نظر می گیریم. در عوض، متکی بر رویکرد زنجیره‌ای از افکار است که برای مدتی وجود داشته است. این روش وظایف را به اجزای کوچک‌تری تقسیم می‌کند که می‌توان آنها را به طور مستقل مورد بررسی قرار داد و بعداً مجدداً جمع‌آوری کرد، یک استراتژی تفرقه کن و حکومت کن در مهندسی.

در حالی که این امکان پردازش سریع‌تر و موازی کاری کارآمدتر را فراهم می‌کند، به معنای تغییر اساسی در معماری هوش مصنوعی نیست. این بیشتر یک شاهکار مهندسی است تا یک جهش واقعی در مدل سازی پایه هوش مصنوعی. به بیان ساده، پیشرفت‌ها به دلیل بهینه‌سازی‌ها هستند – مانند کوچک‌تر کردن و سریع‌تر کردن مدل – اما یک مدل اصلی جدید برای این پیشرفت‌ها وجود ندارد.

دیون نیکلاس، مدیر عامل شرکت Forethought

من فکر می کنم این مدل بسیار قدرتمند است، اما در درجه اول برای کاربردهای نظری. این الگوی جدیدی را نشان می‌دهد که برای مواردی مانند تحقیقات علمی مفید خواهد بود و آن را در کارهای چند عاملی کمی قوی‌تر می‌کند، اما برای اکثر برنامه‌های کاربردی، فکر می‌کنم مردم احتمالاً مدل‌های سریع‌تری مانند GPT-4o را انتخاب می‌کنند و سپس از اهرم‌های جداگانه استفاده می‌کنند. سیستم های RAG یا سیستم های عاملی مانند LangChain برای انجام این وظایف استدلالی پیچیده تر. این به این دلیل است که o1 هنوز نمی تواند جستجوها را انجام دهد یا به روش چند وجهی عمل کند. اما هنوز هم یک جهش قدرتمند به جلو در شناخت است.

فکر می کنم در عمل کمی سخت است. با توجه به سر و صدایی که در مورد “توت فرنگی” و “Q*” وجود دارد، من چیزی را تصور می کردم که می توانست جهش قابل توجهی در کاربردهای عملی باشد. با توجه به آنچه گفته شد، فکر نمی‌کنم این نشانه‌ای از فلج شدن باشد، فکر می‌کنم این اولین مورد استفاده از یک فناوری زیربنایی بسیار قدرتمند است.

من فکر می کنم فناوری که آنها احتمالاً برای ساختن o1 استفاده کردند، یعنی یادگیری تقویتی عمیق با LLMها، تغییری بزرگتر و اساسی تر از خود مدل o1 است. ما در حال نزدیک‌تر شدن به چیزی هستیم که در نهایت ممکن است هوش مصنوعی عمومی (AGI) در نظر گرفته شود.

اسکات دیلن، بنیانگذار NexaTech Ventures

مدل o1 OpenAI نشان‌دهنده جهش قابل توجهی در هوش ماشینی است، اما هنگام نسبت دادن قابلیت‌های انسان‌مانند، مانند «تفکر» و «استدلال» به هر هوش مصنوعی، باید محتاط باشیم. در حالی که این عبارات توجه عمومی را به خود جلب می کنند، اما آنچه را که مدل واقعا انجام می دهد، بیش از حد ساده می کنند. در واقعیت، o1 در تشخیص الگو، پیش‌بینی پیشرفته و تحلیل احتمالی برتری دارد – کیفیت‌هایی که می‌توانند استدلال انسان را در زمینه‌های خاص شبیه‌سازی کنند، اما تفکر به روشی که ما آگاهی یا تفکر انتزاعی را درک می‌کنیم نیست.

خطر آن در هوش آن نیست، بلکه در نحوه استفاده از آن است. بدون نرده‌های محافظ و نظارت مناسب، مدل‌هایی مانند o1 می‌توانند به شیوه‌هایی که اطلاعات نادرست را تقویت می‌کنند، تعصبات را عمیق‌تر می‌کنند یا صنایع را بی‌ثبات می‌کنند، مورد سوء استفاده قرار گیرند. تمرکز باید بر روی توسعه چارچوب‌های قوی باشد تا اطمینان حاصل شود که با افزایش قابلیت‌های مدل‌های هوش مصنوعی، آنها با ارزش‌های انسانی و موارد استفاده اخلاقی همسو می‌شوند.

Tharindu Fernando، توسعه دهنده تمام پشته در Net Speed ​​Canada

در حالی که OpenAI ادعا می کند که o1 قبل از پاسخ دادن زمان بیشتری را صرف «فکر کردن» می کند، بسیار مهم است که درک کنیم که این فکر واقعی به معنای انسانی نیست. در عوض، این یک شبیه سازی پیچیده از فرآیندهای استدلال است. توانایی این مدل برای شکستن مسائل پیچیده و رویکرد گام به گام به آنها قابل توجه است، همانطور که عملکرد آن در ریاضیات و معیارهای کدگذاری مشهود است. با این حال، باید به خاطر داشته باشیم که این هنوز بر اساس تشخیص الگو و پیش‌بینی آماری است، نه درک درست.

با توجه به این سوال که آیا o1 “خطرناک ترین” مدل تا به امروز است، من معتقدم که این شخصیت بیش از حد هیجان انگیز است. بله، قابلیت های پیشرفته این مدل به طور بالقوه می تواند مورد سوء استفاده قرار گیرد، اما OpenAI همچنین اقدامات ایمنی بهبود یافته را اجرا کرده است. رویکرد آموزش ایمنی جدید از قابلیت‌های استدلال مدل برای پایبندی بهتر به دستورالعمل‌ها استفاده می‌کند و مقاومت بهتر در برابر جیلبریک‌ها و کاهش تعصب افزایش یافته را نشان می‌دهد.

سوجان آبراهام، مهندس ارشد نرم افزار در Labelbox

قابلیت «فکر کردن قبل از پاسخگویی» OpenAI نحوه تعامل کاربران با ربات‌های چت هوش مصنوعی را تغییر می‌دهد. توت فرنگی قابلیت های پیشرفته حل مسئله و پاسخ های دقیق متفکرانه ای را ارائه می دهد. از آنجایی که مدل جدید هوش مصنوعی زمان خود را برای تجزیه و تحلیل مقاصد کاربر و تصمیم گیری آگاهانه صرف می کند، می تواند به پاسخ های معنادارتر و مناسب تر منجر شود. در حالی که زمان پاسخ طولانی‌تر ممکن است برخی از کاربران را ناامید کند، اما با افزایش اعتماد آن در موارد استفاده مختلف، نشان‌دهنده تحولی در فناوری هوش مصنوعی است.

پیشرفت های توت فرنگی عبارتند از:

  • حل مشکل پیشرفته: Strawberry OpenAI می تواند سوالات پیچیده تری را با استدلال انجام دهد که منجر به پاسخ های دقیق تر و متفکرانه تر می شود.

  • درک عمیق تر: با توجه به رویکرد تفکر قبل از پاسخگویی، پاسخ ها از نظر زمینه ای مناسب تر هستند.

  • کاربردهای گسترده تر: مهارت های استدلال می تواند نقش بسیار مهمی در زمینه هایی مانند مراقبت های بهداشتی و تحقیقات علمی ایفا کند.

نتایج منفی زمان پاسخ آهسته توت فرنگی می تواند این باشد:

  • ناامیدی: از آنجایی که اکثر کاربران به پاسخ های فوری عادت دارند، پاسخ های آهسته ممکن است آنها را ناامید کند.

  • نگرانی‌های مربوط به توهم: با عمیق‌تر شدن بحث‌ها، اطمینان از اینکه هوش مصنوعی توهم ندارد، بسیار سخت است.

قابلیت‌های استدلال پیشرفته و رویکرد تفکر قبل از پاسخ دادن، ChatGPT را در رسیدگی به پرس‌و‌جوهای پیچیده متمایز می‌کند. این همچنین به این معنی است که این فناوری از مشتریان درجه یک سازمانی در زمینه هایی مانند مراقبت های بهداشتی، مالی و حقوقی اعتماد بیشتری خواهد داشت.





منبع: https://aibusiness.com/nlp/chatgpt-update-claims-reasoning-capabilities-industry-reacts