نویسنده (ها): شنگگانگ لی
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
با الهام از Deepseeker: انتخاب و ترکیب پویا مولکول مدل هایی برای عملکرد بهینه
این داستان فقط عضو بر ما است. برای دسترسی به همه رسانه ها ارتقا دهید.
یادگیری ماشین انتخاب مدل همیشه یک چالش بوده است. این که آیا شما در حال پیش بینی قیمت سهام ، تشخیص بیماری ها یا بهینه سازی کمپین های بازاریابی هستید ، این سؤال باقی مانده است: کدام مدل برای داده های من بهتر است؟ به طور سنتی ، ما برای تست چندین مدل-XGBOOST ، LGBM ، به اعتبار سنجی متقابل متکی هستیم. جنگل تصادفی، و غیره – و بهترین مورد را بر اساس عملکرد اعتبار سنجی انتخاب کنید. اما اگر قسمتهای مختلف مجموعه داده به مدل های مختلف نیاز دارید؟ یا اگر ترکیب چندین مدل به صورت پویا می تواند دقت را بهبود بخشد؟
این ایده هنگام خواندن در مورد Deepseeker R1 ، یک الگوی پیشرفته زبان بزرگ به من ضربه زد (LLM) که به صورت پویا برای بهبود عملکرد سازگار است. با الهام از بهینه سازی مبتنی بر یادگیری تقویت کننده آن (RL) ، تعجب کردم: آیا می توانیم یک استراتژی مشابه RL محور را برای یادگیری نظارت شده اعمال کنیم؟ به جای انتخاب دستی یک مدل ، چرا اجازه نمی دهیم که یادگیری تقویت کننده بهترین استراتژی را برای ما بیاموزد؟
تصور کنید یک عامل RL مانند یک دانشمند داده عمل می کند – تجزیه و تحلیل مجموعه داده خصوصیات ، آزمایش مدلهای مختلف و یادگیری که بهترین عملکرد را دارد. حتی بهتر ، به جای اینکه فقط یک مدل را انتخاب کنید ، می تواند مدل ها را به صورت پویا بر اساس الگوهای داده مخلوط کند. به عنوان مثال ، در یک مجموعه داده مالی ، XGBoost ممکن است روندهای ساختاری را به خوبی اداره کند ، در حالی که LGBM ممکن است … وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر
منتشر شده از طریق به سمت هوش مصنوعی