شماره 60: Deepseek ، CAG و آینده استدلال هوش مصنوعی


نویسنده (ها): به سمت تیم تحریریه AI

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

صبح بخیر ، علاقه مندان به او! دو هفته گذشته در هوش مصنوعی همه چیز در مورد Deepseek-R1 بوده است. بنابراین شماره این هفته شامل منابع و بحث و گفتگو در مورد آن ، همراه با تکنیک های نوظهور مانند CAG ، چارچوب های عامل AI مانند Autogen ، AG2 و هسته معنایی و موارد دیگر است. از خواندن لذت ببرید!

هفتگی AI چیست

این هفته در AI چیست، من نسل Cache-Augmented (CAG) را کشف می کنم ، که به عنوان یک جایگزین واقعی برای RAG ظاهر شده است. RAG برای صحت بسیار عالی است اما برای جستجوی و مقایسه اسناد به زمان نیاز دارد. و از داده های بیشتری که دارید بدتر می شود. این جایی است که CAG وارد می شود و می گوید ، “اگر ما فقط این دانش را مستقیماً در حافظه مدل بارگذاری کنیم؟” بنابراین ، بیایید بفهمیم CAG چیست ، چگونه با Rag متفاوت است و چه موقع از هر دو استفاده می شود. مقاله را اینجا بخوانید یا فیلم را در YouTube تماشا کنیدبشر

-لوئیز فرانسوا بوچارد ، به سمت بنیانگذار AI و رئیس جامعه

بخش جامعه را با هم بیاموزید!

پست برجسته جامعه از Discord

Fuwafuwari. یک وب سایت منبع ایجاد کرده است که می تواند به عنوان نقشه راه برای هر کسی که در زمینه هوش مصنوعی شروع می شود ، باشد. این شامل نقشه های راه ، فیلم ها ، مقاله ها و سایر مطالب یادگیری است. می توانید از طریق منبع باز شروع به یادگیری کنید مخزن جیتاببشر همچنین می توانید از مادی کمک کرده و از یک عضو جامعه پشتیبانی کنید. اگر سوالی یا پیشنهادی دارید ، به موضوع دسترسی پیدا کنید!

نظرسنجی AI هفته!

چند روز پیش فقط تعداد معدودی از مردم از Deepseek اطلاع داشتند. با این حال ، به لطف آزادی Deepseek-R1 ، مطمئناً مورد بحث ترین شرکت بوده است ، و نظرسنجی ها نیز تمایل روشنی به استفاده از Deepseek نشان می دهد. آیا قیمت تصمیم شما را راهنمایی می کند؟ در موضوع به ما بگویید!

Meme of Week!

Meme به اشتراک گذاشته شده توسط ریچاردل

بخش سرپرستی تای

مقاله هفته

پیش بینی سری زمانی پیش بینی: یک مطالعه مقایسه ای از مدل های Mamba ، Gru ، Kan ، GNN و ARMA از طرف شنگگانگ لی

این مقاله پنج مدل را برای پیش بینی سری زمانی چند متغیره ارزیابی می کند: مامبا ، گودال، Kan ، GNN و Arma. این نقاط قوت و محدودیت های هر یک را برجسته می کند ، با این که KAN به دلیل وزن پویا برای روابط غیرخطی ، دستیابی به پایین ترین نرخ خطا است. گودال در ضبط وابستگی های متوالی به خوبی انجام شده است ، در حالی که Mamba دقت و تفسیر را متعادل می کند. GNN نتایج متوسطی را نشان داد ، نیاز به تنظیم بیشتر داشت ، و آرما با پیچیدگی چند متغیره مبارزه کرد. همچنین ادغام Mamba و Kan را برای یک چارچوب یکپارچه پیشنهاد می کند و مدل سازی زمانی را با سازگاری غیرخطی ترکیب می کند. این مطالعه مقایسه ای بینش هایی در مورد انتخاب و تقویت مدل ها برای کارهای پیش بینی پیچیده ارائه می دهد.

مقالات باید بخوانید

1 Autogen ، AG2 ، و هسته معنایی: راهنمای کامل از طرف ناوین کریشنان

در این مقاله یک راهنمای جامع برای سه چارچوب عامل هوش مصنوعی ارائه شده است: Autogen ، AG2 و هسته معنایی. این معماری ، ویژگی ها و موارد استفاده آنها را بررسی می کند و نمونه های عملی را برای اجرای آن ارائه می دهد. Autogen پیام رسانی ناهمزمان ، مدولار بودن ، ابزارهای اشکال زدایی و برنامه هایی مانند Autogen Studio را برای نمونه سازی سریع معرفی می کند. AG2 ، یک تکامل جامعه محور اتوژن ، بر روی ارکستراسیون و همکاری عامل متمرکز است. هسته معنایی ، یک چارچوب سبک وزن ، از ادغام AI درجه یک شرکت پشتیبانی می کند. نتیجه گیری با برجسته کردن نقاط قوت هر چارچوب ، به توسعه دهندگان کمک می کند تا مناسب ترین گزینه برای ساخت سیستم های هوشمند و خودمختار متناسب با نیازهای خود را انتخاب کنند.

2 Deepseek-R1: هوش مصنوعی منبع باز که مانند بهترین Openai فکر می کند از طرف yash thube

در این مقاله Deepseek-R1 ، یک مدل زبان منبع باز طراحی شده است که برای رقیب مدل های پیشرفته OpenAI در کارهای استدلال با کسری از هزینه طراحی شده است. با استفاده از تکنیک های نوآورانه مانند بهینه سازی سیاست نسبی گروه (GRPO) و یادگیری تقویت ، مدل استراتژی های استدلال خود را بدون بازخورد گسترده انسانی. Deepseek-R1 در معیارهایی مانند Aime 2024 و وظایف برنامه نویسی برتری دارد و خروجی های واضح و ساختاری را ارائه می دهد. با انتشار وزن و دستور العمل های تقطیر خود ، Deepseek دموکراتیک AI را دموکراتیک می کند و به توسعه دهندگان این امکان را می دهد تا مدلهای تخصصی و مقرون به صرفه ایجاد کنند.

3 چرا PHI-4 14B خیلی بهتر از GPT-4O و O1 است-در اینجا نتایج از طرف گائو دالی (高達烈)

این مقاله مدل PHI-4 مایکروسافت را با GPT-4O و O1 مقایسه می کند و نقاط قوت PHI-4 را در استدلال و کارآیی ریاضی برجسته می کند. PHI-4 دارای 14 میلیارد پارامتر و برتری در کارهایی است که نیاز به تفکر منطقی دارند ، مانند حل معادلات و مدل سازی مالی. این نمره های معیار بالا را بدست می آورد و از مدل های بزرگتر مانند Google’s Gemini Pro پیشی می گیرد. همچنین قابلیت استفاده PHI4 را در سخت افزار استاندارد از طریق تکنیک های کمیت نشان می دهد و آن را برای استقرار محلی در دسترس می کند. در حالی که O1 سریعتر است ، ماهیت و عملکرد منبع باز PHI-4 آن را به یک انتخاب عملی برای توسعه دهندگان با منابع محدود تبدیل می کند.

4 شبکه های عصبی حالت بیزی (BSSNN): یک چارچوب جدید برای مدل های عصبی قابل تفسیر و احتمالی از طرف شنگگانگ لی

در این مقاله ، شبکه عصبی حالت Bayesian (BSSNN) ، چارچوبی با ترکیب اصول بیزی ، مدل سازی حالت فضای و شبکه های عصبی برای تقویت تفسیر و پیش بینی احتمالی معرفی شده است. BSSNN به صراحت از احتمالات مشترک و حاشیه ای مدل می کند ، و این امکان را برای پیش بینی نتایج (y | x) و استنتاج معکوس (x | y) فراهم می کند. این مقاله به شرح معماری ، فرایند آموزش و ارزیابی عملکرد آن ، مقایسه آن با رگرسیون لجستیک است. در حالی که BSSNN دقت و انعطاف پذیری بهبود یافته را نشان می دهد ، چالش هایی مانند تقاضای محاسباتی و زیربنایی بالقوه ذکر شده است.

اگر علاقه مند به انتشار با AI هستید ، دستورالعمل های ما را بررسی کرده و ثبت نام کنیدبشر اگر این سیاست ها و استانداردهای تحریریه ما را رعایت کند ، کار شما را به شبکه خود منتشر خواهیم کرد.

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/artificial-intelligence/60-deepseek-cag-and-the-future-of-ai-reasoning