Distill-Then-Detect: یک چارچوب عملی برای یادگیری ماشین آگاهی از خطا


نویسنده (ها): شنگگانگ لی

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

عدم اطمینان معلمان ، تقطیر دانش آموزان و کالیبراسیون کنفورماسی برای تشخیص و پرچم پیش بینی های پرخطرعکس توسط Sigmund در Unsplash

حتی پیشرفته ترین شبکه های عصبی یا الگوریتم های تقویت کننده گاهی اوقات بر روی یک قطعه کوچک اما مهم از داده ها – که اغلب حدود 10 ٪ از موارد اعتبار سنجی – در جایی که خطاهای پیش بینی منفجر می شوند ، می چسبند.

این “اشتباهات بزرگ” معمولاً ناشی از ورودی های کثیف در دنیای واقعی است: دور ، ترکیبات غیرمعمول و یا الگوهای پنهان مدل که هرگز آموخته است. بدون راهی برای مشخص کردن این موارد دشوار ، مشاغل می توانند اشتباهات گران قیمت انجام دهند.

به عنوان مثال ، در امتیاز دهی به اعتبار ، اشتباه کردن فقط تعداد معدودی از متقاضیان پرخطر می توانند منجر به پیش فرض وام اصلی شوند. در ساخت ، عدم پرچم پرچم چند دستگاه در مورد شکست می تواند کل خطوط تولید را متوقف کند.

راه حل من سه مرحله عملی را با هم بخیه می کند. اول ، من یک مدل “دانش آموز” جمع و جور را از یک “معلم” قدرتمند برای حفظ دقت ضمن افزایش سرعت ، تقطیر می کنم. در مرحله بعد ، من عدم اطمینان پیش بینی را کمیت می کنم و یک مدل متا سبک وزن را آموزش می دهم تا یاد بگیرم که معلم در آن اشتباه می کند. سرانجام ، من یک روش آستانه کالیبره شده را اعمال می کنم که تضمین می کند من بیشترین موارد پرخطر را بدون اینکه تیم را با هشدارهای دروغین ببندم ، دریافت می کنم.

با خوشه بندی بدترین مشاهدات ، می توانم الگوهای عملی را نیز نشان دهم – مثلاً مشتریانی که دارای نرخ تخفیف شدید یا ماشین آلات تحت شرایط نادر هستند.

این روش نه تنها دقت کلی را بهبود می بخشد بلکه تصمیم گیرندگان را به یک رادار داخلی مجهز می کند … وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/distill-then-detect-a-practical-framework-for-error-aware-machine-learning

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *