نویسنده(های): ایگناسیو د گرگوریو
در ابتدا منتشر شد به سمت هوش مصنوعی.
چگونه یک تایتان کوچک بسازیم
منبع: توسط نویسنده با استفاده از GPT-4o ایجاد شده است
گوگل با آموزش مدلی با پارامتر 2 میلیاردی، که از ChatGPT-3.5، اولین نسخه ChatGPT که وارد زندگی ما شد، پیشی می گیرد، با آموزش مدل 2 میلیارد پارامتری، به نقطه عطف جدیدی در هوش مصنوعی رسیده است.
این اولین بار است که چنین مدل کوچکی را با بهترین نسبت عملکرد به اندازه که تا به حال دیدهایم میبینیم: مدلی در سطح ChatGPT که میتواند روی لپتاپهای مصرفی اجرا شود.
و دلیل این دستاورد شگفت انگیز در روش بسیار خاص و در عین حال ظریف و غیرمتعارف آموزش LLM ها است.
از تبلیغات بیهوده خسته شده اید؟
این قطعه در میان بسیاری از مطالب هفتگی برای اولین بار در من منتشر شد خبرنامه، مکانی برای مدیران و تحلیلگران هوش مصنوعی که می خواهند حقیقت را در پس هیاهوها بیاموزند، روندها را شناسایی کنند و از آنها استفاده کنند.
این خبرنامه برای جلوتر از منحنی در هوش مصنوعی
thetechoasis.beehiiv.com
وقتی به مدلهای زبان بزرگ فکر میکنیم، تنها یک چیز وجود دارد که باید بدانیم: آنها کمپرسورهای داده هستند.
به عبارت دیگر، آموزش آنها به تعبیه دانش در وزن آنها اشاره دارد، به طوری که مدل بتواند آن را تکرار کند.
به طور خلاصه، تمام کاری که LLM ها انجام می دهند این است که با توجه به یک دنباله متن، ادامه معقولی ارائه دهند که بسیار شبیه به دنباله اصلی است… وبلاگ کامل را به صورت رایگان در Medium بخوانید.
منتشر شده از طریق به سمت هوش مصنوعی
منبع: https://towardsai.net/p/artificial-intelligence/googles-gemma2-2b-a-compression-marvel