OpenAI اخیرا پیش نمایشی از آن منتشر شده است مدل جدید هوش مصنوعی، o1، به کاربران ChatGPT. این شرکت که برای تکمیل وظایف پیچیده تر و حل مسائل سخت تر در علوم، برنامه نویسی و ریاضی طراحی شده است، ادعاهای جسورانه ای در مورد توانایی خود در تفکر و استدلال کرده است.
در اینجا چیزی است که نمایندگان صنعت در مورد اینکه آیا o1 که در توسعه با نام Strawberry شناخته می شود، واقعاً نشان دهنده جهش بعدی در هوش مصنوعی مولد است یا خیر، می گویند.
مت حسن، مدیرعامل، airRESULTS
مدل o1 ترکیبی از یادگیری تقویتی عمیق، زنجیره فکر (CoT) و رویکرد “درخت افکار” است که آن را به یک گام مهم رو به جلو در استدلال هوش مصنوعی تبدیل می کند. در حالی که کاملاً مانند یک انسان “فکر می کند” نیست، قابلیت های حل مسئله ساختار یافته آن چشمگیر است.
در طول آزمایش، O1 به طور قابل توجهی توهمات کمتری نسبت به مدل های قبلی نشان داد، به ویژه در کارهایی که نیاز به دقت واقعی دارند. این امر قابلیت اطمینان o1 را برای کارهایی که اطلاعات دقیق در آنها حیاتی است، افزایش می دهد.
ظرفیت مدل o1 برای استدلال با داده ها، رویکرد سازگارتر و هوشمندانه تری برای اعتبارسنجی، به ویژه در زمینه های حساس مانند مراقبت های بهداشتی، ارائه می دهد.
الی ایتزاکی، مدیرعامل و موسس کیزو
عباراتی مانند “فکر کردن” و “استدلال” چشمگیر به نظر می رسند، اما آنها واقعاً آنچه را که در زیر کاپوت اتفاق می افتد منعکس نمی کنند. مدلهای هوش مصنوعی مانند ChatGPT از طریق الگوریتمهای پیچیدهای عمل میکنند که پاسخها را بر اساس الگوهای موجود در دادههایی که روی آنها آموزش دیدهاند، پیشبینی میکنند. آنها مکالمه ای شبیه به انسان را بدون درک یا تجربه چیزی شبیه سازی می کنند. این بیشتر در مورد تشخیص الگوی پیشرفته است تا شناخت واقعی.
برای کسبوکارها، این بدان معناست که هوش مصنوعی میتواند برای کارهای خاص، مانند پاسخ دادن به سؤالات مشترک مشتریان یا تولید ایدههای محتوا، عالی باشد، اما قادر به اتخاذ تصمیمهای ظریفی نیست که به درک واقعی یا همدلی نیاز دارد. بهروزرسانی ممکن است توانایی مدل را در قانعکنندهتر به نظر رسیدن بهبود بخشد، اما ما نباید آن را با استدلال واقعی انسانی اشتباه بگیریم.
این سوال که آیا این “خطرناک ترین” هوش مصنوعی تا به امروز است یا خیر، موضوعی است. خطر واقعی در برآورد بیش از حد آنچه فناوری می تواند انجام دهد و استفاده از آن در سناریوهایی است که تماس انسان هنوز ضروری است.
Ed Charbeneau، مدافع اصلی توسعه دهنده، Progress
در حالی که مدل جدید o1 چشمگیر است و ویژگی های تفکر عمیق را نشان می دهد، خود مدل اراده، آگاهی یا حافظه مستقلی ندارد. مدل نمیتواند خارج از چارچوب دستوری که داده شده «فکر کند». توانایی های استدلال مدل چشمگیر است و شبیه انسان به نظر می رسد، اما همچنان در دسته ربات های چت یا استدلال محدود قرار می گیرد.
سری جدید مدل های هوش مصنوعی o1 برای کارهای چند عملیاتی سنگین مانند ریاضی، علوم و کدنویسی ساخته شده است. مدلهای قبلی به یک درخواست با اولین پاسخی که ایجاد میکرد پاسخ میدادند که منجر به توهم میشد، گاهی اوقات با خطاهای منطقی ساده.
مدلهای سری o1 برای پاک کردن خطاهای منطقی با تقسیم وظایف دشوار به مراحل کوچکتر به نام «زنجیره فکر» طراحی شدهاند. خلاصه زنجیره فکر را می توان برای درک فرآیندهای حل مسئله مورد استفاده مدل برای رسیدن به پاسخ نهایی نشان داد. با استفاده از یک زنجیره فکری، مدل زمان و محاسبات بیشتری را برای حل یک مسئله و در عین حال دقیقتر میگیرد و در نتیجه توهم کمتری را نشان میدهد.
استیو ویلسون، CPO در Exabeam
بزرگترین نکته از O1 OpenAI توانایی آن در توضیح استدلال آن است. مدل جدید o1 از استدلال گام به گام استفاده می کند، نه اینکه صرفاً بر منطق «نشان بعدی» تکیه کند. به عنوان مثال، من یک معما برای o1 مطرح کردم و از آن پرسیدم: “چه چیزی 18 پا دارد و مگس ها را می گیرد؟” پاسخ داد: «یک تیم بیسبال. یک تیم بیسبال 9 بازیکن در زمین دارد که مجموعاً 18 پا دارند و آنها «مگسها» را میگیرند – که توپهای پروازی هستند که توسط تیم مقابل اصابت میکند. اما آنچه جالب است این است که اکنون نمادی وجود دارد که می توانید روی آن کلیک کنید تا ببینید o1 چگونه فکر می کند!
این ویژگی جدید به کاربر نشان می دهد که چگونه به نتیجه رسیده است. در این مورد، روند فکری خود را برای “مطرح کردن به تحقیق”، “رمزگشایی معما” و “وزن زدن تیم بیسبال” بیان کرد. مفهوم توضیح پذیری همیشه یک موضوع بزرگ و یک چالش بزرگ برای برنامه های کاربردی مبتنی بر یادگیری ماشین بوده است. این به نظر یک گام بزرگ به جلو است.
این یک انتشار هیجان انگیز است. چیزی که در مورد آزمایش اولیه من هیجان انگیز است این نیست که در معیارها امتیاز بهتری کسب می کند، بلکه سطحی از توضیح را ارائه می دهد که هرگز در مدل های تولیدی AI/LLM وجود نداشته است. توهمات محدودیت اصلی در اتخاذ این مدل ها برای بسیاری از موارد استفاده بوده است. این یک راه رو به جلو را نشان می دهد.
افرادی که می گویند OpenAI پیشرفت کرده است، روی عملکرد مدل های پیش بینی توکن بعدی متمرکز شده اند، اما در حال سرمایه گذاری بر روی جهش های کوانتومی در حوزه هایی پیرامون استدلال و تعامل صوتی است – که قفل بسیاری از موارد استفاده جدید را باز می کند. هنگامی که شما شروع به ترکیب این مدلهای استدلال با مدلهای بینایی چندوجهی و تعامل صوتی میکنید، در ۱۲ ماه آینده شاهد یک تغییر اساسی خواهیم بود. کلاه خود را نگه دارید هیجان انگیز خواهد بود!
Jean-Louis Quéguiner، بنیانگذار و مدیر عامل Gladia
آخرین تکرار مدل GPT-o1 OpenAI علاقه قابل توجهی را ایجاد کرده است، اما با تجزیه و تحلیل دقیق تر، ممکن است آنطور که بسیاری انتظار دارند، پیشگامانه و “خطرناک” نباشد.
GPT-o1 چیزی نیست که ما معمولاً یک مدل پایه در نظر می گیریم. در عوض، متکی بر رویکرد زنجیرهای از افکار است که برای مدتی وجود داشته است. این روش وظایف را به اجزای کوچکتری تقسیم میکند که میتوان آنها را به طور مستقل مورد بررسی قرار داد و بعداً مجدداً جمعآوری کرد، یک استراتژی تفرقه کن و حکومت کن در مهندسی.
در حالی که این امکان پردازش سریعتر و موازی کاری کارآمدتر را فراهم میکند، به معنای تغییر اساسی در معماری هوش مصنوعی نیست. این بیشتر یک شاهکار مهندسی است تا یک جهش واقعی در مدل سازی پایه هوش مصنوعی. به بیان ساده، پیشرفتها به دلیل بهینهسازیها هستند – مانند کوچکتر کردن و سریعتر کردن مدل – اما یک مدل اصلی جدید برای این پیشرفتها وجود ندارد.
دیون نیکلاس، مدیر عامل شرکت Forethought
من فکر می کنم این مدل بسیار قدرتمند است، اما در درجه اول برای کاربردهای نظری. این الگوی جدیدی را نشان میدهد که برای مواردی مانند تحقیقات علمی مفید خواهد بود و آن را در کارهای چند عاملی کمی قویتر میکند، اما برای اکثر برنامههای کاربردی، فکر میکنم مردم احتمالاً مدلهای سریعتری مانند GPT-4o را انتخاب میکنند و سپس از اهرمهای جداگانه استفاده میکنند. سیستم های RAG یا سیستم های عاملی مانند LangChain برای انجام این وظایف استدلالی پیچیده تر. این به این دلیل است که o1 هنوز نمی تواند جستجوها را انجام دهد یا به روش چند وجهی عمل کند. اما هنوز هم یک جهش قدرتمند به جلو در شناخت است.
فکر می کنم در عمل کمی سخت است. با توجه به سر و صدایی که در مورد “توت فرنگی” و “Q*” وجود دارد، من چیزی را تصور می کردم که می توانست جهش قابل توجهی در کاربردهای عملی باشد. با توجه به آنچه گفته شد، فکر نمیکنم این نشانهای از فلج شدن باشد، فکر میکنم این اولین مورد استفاده از یک فناوری زیربنایی بسیار قدرتمند است.
من فکر می کنم فناوری که آنها احتمالاً برای ساختن o1 استفاده کردند، یعنی یادگیری تقویتی عمیق با LLMها، تغییری بزرگتر و اساسی تر از خود مدل o1 است. ما در حال نزدیکتر شدن به چیزی هستیم که در نهایت ممکن است هوش مصنوعی عمومی (AGI) در نظر گرفته شود.
اسکات دیلن، بنیانگذار NexaTech Ventures
مدل o1 OpenAI نشاندهنده جهش قابل توجهی در هوش ماشینی است، اما هنگام نسبت دادن قابلیتهای انسانمانند، مانند «تفکر» و «استدلال» به هر هوش مصنوعی، باید محتاط باشیم. در حالی که این عبارات توجه عمومی را به خود جلب می کنند، اما آنچه را که مدل واقعا انجام می دهد، بیش از حد ساده می کنند. در واقعیت، o1 در تشخیص الگو، پیشبینی پیشرفته و تحلیل احتمالی برتری دارد – کیفیتهایی که میتوانند استدلال انسان را در زمینههای خاص شبیهسازی کنند، اما تفکر به روشی که ما آگاهی یا تفکر انتزاعی را درک میکنیم نیست.
خطر آن در هوش آن نیست، بلکه در نحوه استفاده از آن است. بدون نردههای محافظ و نظارت مناسب، مدلهایی مانند o1 میتوانند به شیوههایی که اطلاعات نادرست را تقویت میکنند، تعصبات را عمیقتر میکنند یا صنایع را بیثبات میکنند، مورد سوء استفاده قرار گیرند. تمرکز باید بر روی توسعه چارچوبهای قوی باشد تا اطمینان حاصل شود که با افزایش قابلیتهای مدلهای هوش مصنوعی، آنها با ارزشهای انسانی و موارد استفاده اخلاقی همسو میشوند.
Tharindu Fernando، توسعه دهنده تمام پشته در Net Speed Canada
در حالی که OpenAI ادعا می کند که o1 قبل از پاسخ دادن زمان بیشتری را صرف «فکر کردن» می کند، بسیار مهم است که درک کنیم که این فکر واقعی به معنای انسانی نیست. در عوض، این یک شبیه سازی پیچیده از فرآیندهای استدلال است. توانایی این مدل برای شکستن مسائل پیچیده و رویکرد گام به گام به آنها قابل توجه است، همانطور که عملکرد آن در ریاضیات و معیارهای کدگذاری مشهود است. با این حال، باید به خاطر داشته باشیم که این هنوز بر اساس تشخیص الگو و پیشبینی آماری است، نه درک درست.
با توجه به این سوال که آیا o1 “خطرناک ترین” مدل تا به امروز است، من معتقدم که این شخصیت بیش از حد هیجان انگیز است. بله، قابلیت های پیشرفته این مدل به طور بالقوه می تواند مورد سوء استفاده قرار گیرد، اما OpenAI همچنین اقدامات ایمنی بهبود یافته را اجرا کرده است. رویکرد آموزش ایمنی جدید از قابلیتهای استدلال مدل برای پایبندی بهتر به دستورالعملها استفاده میکند و مقاومت بهتر در برابر جیلبریکها و کاهش تعصب افزایش یافته را نشان میدهد.
سوجان آبراهام، مهندس ارشد نرم افزار در Labelbox
قابلیت «فکر کردن قبل از پاسخگویی» OpenAI نحوه تعامل کاربران با رباتهای چت هوش مصنوعی را تغییر میدهد. توت فرنگی قابلیت های پیشرفته حل مسئله و پاسخ های دقیق متفکرانه ای را ارائه می دهد. از آنجایی که مدل جدید هوش مصنوعی زمان خود را برای تجزیه و تحلیل مقاصد کاربر و تصمیم گیری آگاهانه صرف می کند، می تواند به پاسخ های معنادارتر و مناسب تر منجر شود. در حالی که زمان پاسخ طولانیتر ممکن است برخی از کاربران را ناامید کند، اما با افزایش اعتماد آن در موارد استفاده مختلف، نشاندهنده تحولی در فناوری هوش مصنوعی است.
پیشرفت های توت فرنگی عبارتند از:
-
حل مشکل پیشرفته: Strawberry OpenAI می تواند سوالات پیچیده تری را با استدلال انجام دهد که منجر به پاسخ های دقیق تر و متفکرانه تر می شود.
-
درک عمیق تر: با توجه به رویکرد تفکر قبل از پاسخگویی، پاسخ ها از نظر زمینه ای مناسب تر هستند.
-
کاربردهای گسترده تر: مهارت های استدلال می تواند نقش بسیار مهمی در زمینه هایی مانند مراقبت های بهداشتی و تحقیقات علمی ایفا کند.
نتایج منفی زمان پاسخ آهسته توت فرنگی می تواند این باشد:
-
ناامیدی: از آنجایی که اکثر کاربران به پاسخ های فوری عادت دارند، پاسخ های آهسته ممکن است آنها را ناامید کند.
-
نگرانیهای مربوط به توهم: با عمیقتر شدن بحثها، اطمینان از اینکه هوش مصنوعی توهم ندارد، بسیار سخت است.
قابلیتهای استدلال پیشرفته و رویکرد تفکر قبل از پاسخ دادن، ChatGPT را در رسیدگی به پرسوجوهای پیچیده متمایز میکند. این همچنین به این معنی است که این فناوری از مشتریان درجه یک سازمانی در زمینه هایی مانند مراقبت های بهداشتی، مالی و حقوقی اعتماد بیشتری خواهد داشت.
منبع: https://aibusiness.com/nlp/chatgpt-update-claims-reasoning-capabilities-industry-reacts