تسلط بر Polyak Averaging: A Hidden Gem برای همگرایی روانتر و سریعتر در بهینه سازی


نویسنده(های): جوزف رابینسون، Ph.D.

در ابتدا منتشر شد به سمت هوش مصنوعی.

از گرادیان نزول به روش پولیاک: الف یادگیری ماشینی آموزش

این داستان فقط برای اعضا در اختیار ماست. برای دسترسی به تمام Medium ارتقا دهید.

Polyak Averaging یک تکنیک بهینه‌سازی قدرتمند است که اغلب کمتر مورد استفاده قرار می‌گیرد، اما می‌تواند پیشرفت‌های قابل‌توجهی در سرعت و پایداری هم‌گرایی برای الگوریتم‌های بهینه‌سازی تکرار شونده به همراه داشته باشد (به عنوان مثال، شیب نزول).

این تکنیک که به نام ریاضیدان بوریس پولیاک نامگذاری شده است، به ویژه در سناریوهایی که شیب های پر سر و صدا یا به روز رسانی های ناپایدار یادگیری را کند می کنند، موثر است.

ما در مورد Polyak Averaging، ساختار ریاضی آن و مقایسه آن با شیب نزولی سنتی آشنا خواهیم شد. سپس آن را در پایتون پیاده سازی می کنیم و مزایای عملی آن را با مثال های عملی نشان می دهیم.

Polyak میانگین مقادیر پارامترهای t قبلی را میانگین می کند [image source].

· 1. میانگین گیری پولیاک چیست؟ 2. ریاضیات پشت میانگین گیری پولیاک ∘ نزول گرادیان استاندارد: ∘ میانگین گیری پولیاک: 3. چرا از میانگین گیری پولیاک استفاده کنیم؟ مزایا و شهود · 4. پیاده سازی Polyak Averaging (از ابتدا) · 5. مثال عملی: Gradient Descent در مقابل Polyak Averaging ∘ A. تابع خطی ∘ B. تابع درجه دوم ∘ C. Rosenbrock Function Aclu· 6.

Polyak Averaging برای بهبود پایداری و عملکرد الگوریتم‌های بهینه‌سازی تکراری مانند نزول گرادیان طراحی شده است. ایده این است که پارامترهای یک مدل (یعنی وزن‌ها) را در چندین تکرار به‌جای فرض کردن مقادیر آنها در تکرار نهایی، میانگین کنیم.

این مدل میانگین می تواند تعمیم بهتری به دست دهد… وبلاگ کامل را به صورت رایگان در Medium بخوانید.

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/mastering-polyak-averaging-a-hidden-gem-for-smoother-and-faster-convergence-in-optimization