نویسنده (ها): دکتری Eyal Kazin
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
یک شهود به دو متغیر بدست آورید آمار به عنوان مقدمه ای برای درک اطلاعات متقابل. کد پایتون گنجانده شده است. 🐍
اطلاعات متقابل مقدار “آه!” شما با یادگیری دیگری یک چیز را بدست می آورید
این چهارمین مقاله در یک سری مقدماتی در مورد کمیت اطلاعات است – یک چارچوب اساسی برای دانشمندان داده. یادگیری برای اندازه گیری اطلاعات ، ابزارهای قدرتمند برای بهبود تحلیل های آماری و تصفیه معیارهای تصمیم گیری در یادگیری ماشینبشر
در این مقاله و بعدی ما در مورد اطلاعات متقابل متریک محبوب بحث می کنیم – که بیان می کند چقدر دانستن یک متغیر باعث کاهش عدم اطمینان در دیگری می شود.
یا به عبارت دیگر:
چه مقدار اطلاعات در مورد متغیر تصادفی با مشاهده متغیر تصادفی ب؟
همانطور که در طول سریال ، برای ایجاد یک پایه محکم ، در این مقاله ما بر درک اصول دو (یا بیشتر) متغیر تمرکز می کنیم آمار مانند توزیع احتمال مشترک و احتمالات شرطی. ما سپس از طریق ساختمان اطلاعات متقابل با تئوری اطلاعات ارتباط خواهیم داشت: اطلاعات متقابل Point (PMI) ، که به عنوان “یکی از مهمترین مفاهیم در” در نظر گرفته می شود پردازش زبان طبیعی“¹ (NLP).
برای ساختن چیزها ، این مفاهیم را با استفاده از نمونه های ساده اسباب بازی از NLP 🔠 ، بازی تله ای-که در آن ما جفت های تاس 🎲🎲 را می چرخانیم و ماتریس های همزمان را در یک تجزیه و تحلیل سبد بازار 🧺 می کنیم ، کشف خواهیم کرد.
با یک درک محکم … وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر
منتشر شده از طریق به سمت هوش مصنوعی