چند مثال که در آن GPT-4o نمی تواند فکر کند/استدلال کند!!


نویسنده(های): گانش باجاج

در ابتدا منتشر شد به سمت هوش مصنوعی.

این داستان فقط برای اعضا در اختیار ماست. برای دسترسی به تمام Medium ارتقا دهید.

مدل های زبان بزرگ (LLMs) مانند دانش آموزانی هستند که خیلی چیزها را حفظ می کنند اما همیشه نمی فهمند. آنها در ارائه راه حل ها بر اساس آموخته های خود عالی هستند، اما گاهی اوقات با تفکر واقعی دست و پنجه نرم می کنند.

به زبان ساده، LLMs هنوز هم در جایی که تفکر دخیل است شکست می خورد. اگر با آن استدلال کنیم یا آن را راهنمایی کنیم، احتمالاً به راه حل صحیح منتهی می شود. اما در سطح اول تفکر، گاهی اوقات شکست می خورد. این باعث می‌شود مدل‌های LLM سازگاری کمتری داشته باشند و به اندازه دانش یا تفکر منطقی ما قابل اعتماد هستند.

این به احتمال زیاد با توجه به اینکه LLM ها به همان خوبی هستند که آموزش داده شده است. پاسخ‌هایی که دریافت می‌کنیم صرفاً نتیجه تمرین سختی است که آن را پشت سر گذاشته‌ایم.

در زیر چند نمونه وجود دارد که من با آن برخورد کردم و خودم gpt-4o را امتحان کردم:

Chatgpt-4o نتیجه: تصویر تصویر شده توسط نویسنده

در اینجا، در نگاه اول می توان گفت که نقطه نارنجی در شکل سمت راست بزرگتر است. اما llm شکست می خورد!!! ما می توانیم با مدل استدلال کرده و آن را به سمت پاسخ صحیح هدایت کنیم. اما این باعث می شود هنگام توسعه برنامه های GenAI کمتر قابل اعتماد و ناسازگار باشد. در راه‌حل‌های GenAI، برای هدایت آن به سمت پاسخ صحیح، باید نقد شود.

نتیجه Chatgpt-4o: تصویر… وبلاگ کامل را به صورت رایگان در Medium بخوانید.

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/few-examples-where-gpt-4o-fails-to-think-reason-3