نویسنده(های): گانش باجاج
در ابتدا منتشر شد به سمت هوش مصنوعی.
این داستان فقط برای اعضا در اختیار ماست. برای دسترسی به تمام Medium ارتقا دهید.
مدل های زبان بزرگ (LLMs) مانند دانش آموزانی هستند که خیلی چیزها را حفظ می کنند اما همیشه نمی فهمند. آنها در ارائه راه حل ها بر اساس آموخته های خود عالی هستند، اما گاهی اوقات با تفکر واقعی دست و پنجه نرم می کنند.
به زبان ساده، LLMs هنوز هم در جایی که تفکر دخیل است شکست می خورد. اگر با آن استدلال کنیم یا آن را راهنمایی کنیم، احتمالاً به راه حل صحیح منتهی می شود. اما در سطح اول تفکر، گاهی اوقات شکست می خورد. این باعث میشود مدلهای LLM سازگاری کمتری داشته باشند و به اندازه دانش یا تفکر منطقی ما قابل اعتماد هستند.
این به احتمال زیاد با توجه به اینکه LLM ها به همان خوبی هستند که آموزش داده شده است. پاسخهایی که دریافت میکنیم صرفاً نتیجه تمرین سختی است که آن را پشت سر گذاشتهایم.
در زیر چند نمونه وجود دارد که من با آن برخورد کردم و خودم gpt-4o را امتحان کردم:
در اینجا، در نگاه اول می توان گفت که نقطه نارنجی در شکل سمت راست بزرگتر است. اما llm شکست می خورد!!! ما می توانیم با مدل استدلال کرده و آن را به سمت پاسخ صحیح هدایت کنیم. اما این باعث می شود هنگام توسعه برنامه های GenAI کمتر قابل اعتماد و ناسازگار باشد. در راهحلهای GenAI، برای هدایت آن به سمت پاسخ صحیح، باید نقد شود.
منتشر شده از طریق به سمت هوش مصنوعی
منبع: https://towardsai.net/p/machine-learning/few-examples-where-gpt-4o-fails-to-think-reason-4