ماه در 4 مقاله (فوریه 2025)


نویسنده (ها): علاء فلاکی ، دکترا

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

این داستان فقط عضو بر ما است. برای دسترسی به همه رسانه ها ارتقا دهید.

بررسی چگونگی استراتژی های ذخیره سازی ، طول زمینه ، تخمین عدم اطمینان و بازنمایی مفهومی در حال تغییر شکل بازیابی دانش در مدل های زبان است.

این سری از پست ها به گونه ای طراحی شده است که جدیدترین یافته ها و تحولات را در این زمینه به ارمغان می آورد NLP میدان من هر ماه به چهار مقاله تحقیقاتی مهم می پردازم و خلاصه ای جامع را ارائه می دهم. حتماً به طور مرتب از وبلاگ من بازدید کنید یا در من مشترک شوید خبرنامه برای به روزرسانی های ماهانه بیایید شیرجه بزنیم!

📝 مدل های مفهوم بزرگ: مدل سازی زبان در یک فضای بازنمایی جمله [paper] [code]

در این مقاله مدل های مفهومی بزرگ (LCM) ارائه شده است که جملات کامل را به طور هم زمان (به جای نشانه ها) پردازش می کنند ، مانند اینکه انسان ها به طور طبیعی به جای کلمات فردی ، به طور طبیعی در ایده های کامل فکر می کنند. آنها از مدل سونار رمزگذار رمزگذار به عنوان اجزای یخ زده استفاده کردند و مدل LCM در وسط قرار داشت. بنابراین ، ابتدا ، مدل LCM جمله تعبیه شده از رمزگذار سونار را دریافت می کند. سپس ، LCM تعبیه جدید را تولید می کند ، که برای تولید کننده سونار برای نسل منتقل می شود.

معماری منتخب برای LCM “دو برج” نامگذاری شد که از دو مؤلفه تشکیل شده است: Contextualizer و Denoiser ، که با استفاده از لایه های ترانسفورماتور اجرا می شوند. آنها با معماری های مختلف آزمایش کردند ، اما ثابت شد که دو برج مؤثرتر است. این رویکرد عملکرد محکمی را در بین زبانها فراهم می کند … وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/month-in-4-papers-february-2025