نویسنده (ها): به سمت تیم تحریریه AI
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
برجسته
صبح بخیر ، علاقه مندان به او ،
مسئله این هفته در مورد بازگشت به اصول اول است. ما در حال غواصی هستیم LLMS در واقع یاد بگیرید: آنچه در زیر کاپوت است ، و چرا هنگام ساختن یا استقرار هر چیز جدی ، اهمیت دارد. این همچنین منجر به راه اندازی کامل 10 ساعته ما است LLM Primer ، طراحی شده برای قطع مه و کمک به شما در تصمیم گیری های فنی واقعی ، سریع.
در بخش سرپرستی ، می توانید تفکیک کنید که چگونه بخش هر متن باعث بهبود ساختار RAG ، یک آغازگر در MCP و چگونگی قدرت اتوماسیون ایمن می شود ، و نگاهی به این که چرا LLM های عمودی در حال پیشی از مدل های عمومی با 10 برابر هستند. شما همچنین یک آموزش در مورد ردیابی عامل با Langfuse ، معیارهای طبقه بندی و یک روتر Llama در جامعه ساخته شده اید.
و این هفته دوباره ، ما یک پست مهمان شگفت انگیز در Miguel Oterero Pedrido داریم پیچ و خم عصبی خبرنامه مقایسه نسل بازیابی (RAG) و نسل کشیده شده با حافظه نهان (CAG). این یافته ها واضح بود: CAG پردازش بسیار کارآمدتر پس از مخازن تقریباً 10 × کمتر نشانه در هر پرس و جو ، و در امتناع از پاسخ دادن هنگام خارج شدن از اطلاعات ، نظم و انضباط بیشتری دارد. با این حال ، RAG در مقایسه مستقیم ، پاسخ های مفصل تر را ایجاد کرد. با هزینه ، CAG حتی سریع می شکند. در تست های ما ، فقط شش پرس و جو روی یک حافظه نهان کوچک آن را ارزان تر از Rag. قطعه کامل شامل روش های ارزیابی ، مثال و تجزیه هزینه ها – شما می توانید آن را در اینجا بخوانید!
اگر آن را بررسی کنید ، دوست داریم افکار شما را بشنویم. اگر به نظر شما مفید است یا اگر تعداد بیشتری وجود داشته باشد ، می خواهید در مورد این سیستم ها کاوش کنیم.
هفتگی AI چیست
https://www.youtube.com/watch؟v=7lhjidvroxs
عدم درک اساسی در مورد چگونگی ایجاد LLMS منجر به دست کم گرفتن توانایی هوش مصنوعی در برخی مناطق (و بنابراین عدم فشار استفاده از AI به پتانسیل آن) و بیش از حد توانایی AI در مناطق دیگر (که می تواند منجر به ناامیدی کاربر و رد زودرس این ابزارها شود ، یا بدتر از آن اشتباهات هوش مصنوعی که به خروجی های کار می رسد). بنابراین این هفته در AI چیست، من در حال غواصی در نحوه طراحی و ساخت این مدل ها هستم. در حالی که درک کاملی از طراحی اساسی LLMS دیگر برای استفاده و ساخت محصولات LLM به طور مؤثر لازم نیست ، دانستن برخی از مفاهیم نظری ، مانند هدف آموزش LLM ، داده های آموزش، چگونگی تولید آنها کلمات و درک تعبیه ها ، می تواند تفاوت زیادی در به دست آوردن بیشترین استفاده از آنها ایجاد کند. بنابراین ، مقاله کامل را اینجا بخوانید یا فیلم را در YouTube تماشا کنیدبشر
-لوئیز فرانسوا بوچارد ، به سمت بنیانگذار AI و رئیس جامعه
معرفی آغازگر ویدیوی 10 ساعته: ساختمان و کار با LLMS
اگر تا به حال پنج پست وبلاگ را به عمق رفته اید و هنوز هم با “این بستگی دارد” به پایان رسیده است ، این دوره برای شما مناسب است.


آغازگر 10 ساعته LLM به شما کمک می کند تا سر و صدا را کاهش داده و تصمیمات فنی واقعی بگیرید – سریع.
در پنج جلسه ویدیویی متمرکز ، یاد خواهید گرفت:
- آنچه در واقع ترانسفورماتورها انجام می دهند (و نه)
- چه موقع از فوریت ، پارچه ، تنظیم دقیق یا هیچ یک از آنها استفاده کنید
- گردش کار عامل در دنیای واقعی چگونه ساختار یافته است
- چه چیزی در مقیاس شکسته می شود – و چگونه می توان آن را برطرف کرد
- نحوه ارزیابی و حفظ سیستم های LLM درجه تولید
در یک روز قابل سوختن است. یا با آن مانند Docuseries AI رفتار کنید.
بدون کرک بدون اعتیاد به مواد مخدره فقط وضوح ما معمولاً در کارگاه های 25K دلار+ شرکت ارائه می دهیم.
قیمت راه اندازی: 199 دلار ، شامل تمام به روزرسانی های آینده (به زودی کاهش می یابد)
با افت دروس جدید ، قیمت بالا می رود – اکنون آن را بگیرید.
👉 جزئیات دوره اینجا
بخش جامعه را با هم بیاموزید!
پست برجسته جامعه از Discord
JASONFPV_ یک repo flexllama ، یک ابزار سبک وزن ، گسترش یافته و کاربر پسند با خود ایجاد کرده است که به طور کارآمد چندین سرور Llama.cpp را با سازگاری API OpenAI V1 اجرا می کند. این طراحی شده است تا چندین مدل را در GPU های مختلف مدیریت کند و آن را به یک راه حل قدرتمند برای توسعه و استقرار AI محلی تبدیل کند. آن را در GitHub بررسی کنید و از یک عضو جامعه دیگر حمایت کنید. اگر سوالی یا بازخورد دارید ، آنها را در موضوع به اشتراک بگذارید!
نظرسنجی AI هفته!
70 ٪ از شما به معماری های ترکیبی رای داده اید ، و این چیزهای زیادی می گوید. ما در حال گذر از مرحله “بزرگتر بهتر است” از هوش مصنوعی. سازندگان به جای یک مدل برای حاکم بر همه آنها ، شرط بندی بر هماهنگی بر سلطه دارند: یک ژنرال قدرتمند که باعث ازدحام متخصصان می شود. این کارآمدتر ، مدولار تر و شاید … انسانی تر است.
نکته جالب این است که تعداد بسیار کمی “یک مدل غول پیکر” را انتخاب کردند. این یک تغییر است. بازار ممکن است امروزه مدلهای عظیم را پاداش دهد ، اما دنیای واقعی به وضوح در سیستم ها فکر می کند ، نه سیلو.
یک مورد استفاده واقعی در جایی که فکر می کنید مدل ترکیبی (Big Generalist + کارشناسان کوچک) به وضوح از هر مدل واحد به وضوح بهتر عمل می کند ، چیست؟ افکار خود را در موضوع به اشتراک بگذارید!
فرصت های همکاری
جامعه Discord Learn Ai Together با فرصت های همکاری در حال سیل است. اگر از شیرجه رفتن به هوش مصنوعی کاربردی هیجان زده اید ، یک شریک مطالعه می خواهید ، یا حتی می خواهید برای پروژه Passion خود شریک پیدا کنید ، به کانال همکاری بپیوندید! به این بخش نیز توجه داشته باشید – ما هر هفته فرصت های جالب را به اشتراک می گذاریم!
1 SAFAR4352 در حال ساختن یک پروژه از ابتدا است و به یک شریک پروژه احتیاج دارد. این پروژه مبتنی بر پایتون خواهد بود ، بنابراین اگر می خواهید Genai و LLMS را به عمق درک کنید ، با او در موضوع ارتباط برقرار کنید!
2 tranquil_dolphin_27432 می خواهد با کسی که معمولاً هوش مصنوعی را به عنوان پروژه اشتیاق خود می بیند همکاری کند. اگر این مثل شما به نظر می رسد ، به موضوع دسترسی پیدا کنید!
3 zabka___ به دنبال یک جامعه کوچک از 10-30 دبیرستان ، دانش آموزان یا محققان برای یادگیری است یادگیری ماشین با هم تمرکز آنها روی جنبه های نظری است ، مانند جبر خطی وت آماربشر اگر می خواهید دانش خود را در این فضا گسترش دهید ، در موضوع با آنها تماس بگیرید!
Meme of Week!
Meme به اشتراک گذاشته شده توسط ghost_in_the_machine
بخش سرپرستی تای
مقاله هفته
Langchain + بخش هر متن + rag = کلید درک اسناد شما از طرف گائو دالی (高達烈)
در این مقاله به شماره سیستم RAG مشترک تکه تکه شدن معنایی از تقسیم متن استاندارد می پردازد. این پیشنهاد را با استفاده از یک بخش از هر رویکرد متن (SAT) ، که از طریق چارچوب ContextGem اجرا می شود ، پیشنهاد می کند تا اطمینان حاصل شود که تکه های متن قبل از پردازش کاملاً کامل هستند. نویسنده نحوه ساخت یک عامل قدرتمند را نشان می دهد که ترکیبی از استخراج داده های ساختاری ContextGem را با یک خط لوله Rag Langchain سنتی با استفاده از FAISS و OpenAi ترکیب می کند. این رویکرد دوگانه با پرس و جو از بینش های ساختاری و متن اسناد بدون ساختار ، پاسخ های دقیق تر و آگاه تر را فراهم می کند.
مقالات باید بخوانید
1 MCP -کلید طلایی برای اتوماسیون AI از طرف الکس پانن
این وبلاگ پروتکل زمینه مدل (MCP) را توضیح می دهد ، استانداردی برای اجازه دادن به LLM ها با API های خارجی. این نحوه عملکرد MCP با اجازه دادن به LLM برای تولید یک تماس JSON-RPC برای یک ابزار خاص پس از دریافت توضیحات خود ، تجزیه می شود. نویسنده از یک مثال ماشین حساب ساده برای نشان دادن روند استفاده می کند. بخش قابل توجهی شامل مجوز ایمن ، مبتنی بر OAUTH2 MCP ، با استفاده از پلت فرم مالی بادبادک Zerodha برای نشان دادن چگونگی ایجاد یک جلسه معتبر بدون مشتری است که تا به حال دارای اعتبار حساس است.
2 100B دلار و افزایش: چرا LLM های عمودی 10 برابر سریعتر از مدل های AI عمومی رشد می کنند از طرف R. Thompson (دکترا)
در این مقاله ، تغییر صنعت در حال رشد از هوش مصنوعی به LLM های عمودی ، که برای بخش های خاصی مانند امور مالی ، مراقبت های بهداشتی و قانون تنظیم شده است ، شرح داده شده است. این نشان می دهد که چگونه مدل های کلی می توانند در محیط های ظریف و تنظیم شده کوتاه شوند ، در حالی که مدل های تخصصی مانند Bloomberggpt و Med-Palm 2 دقت ، انطباق و عمق متنی را ارائه می دهند. این قطعه همچنین روشهای فنی مانند Rag و Qlora را در بر می گیرد که توسعه این مدل های خاص دامنه را تسهیل می کند ، که پیش بینی می شود شاهد رشد قابل توجهی در بازار باشند.
3 با استفاده از Langfuse ، عوامل باز AI SDK را کنترل و ارزیابی کنید از طرف استیو جورج
نویسنده روشی را برای نظارت بر یک گردش کار عامل ساخته شده با OpenAi SDK ارائه می دهد. این سیستم یک سیستم سه عامل را تشریح می کند: یک نگهبان ورودی برای مسدود کردن داده های حساس ، یک کمک کننده برای تولید پاسخ و یک عامل اعتبار سنجی برای بررسی واقعیت. این قطعه نحوه استفاده از OpenTelemetry را برای ارسال داده های ردیابی به Langfuse برای تجسم نشان می دهد. همچنین برای ایجاد توطئه های تحلیلی برای ارزیابی ، به صورت برنامه ای به آثار برنامه ای با Langfuse SDK دسترسی پیدا می کند.
4 راهنمای اساسی برای معیارهای ارزیابی مدل برای طبقه بندی از طرف ayo akinkugbe
این قطعه یک مرور کلی از معیارهای ارزیابی برای مدلهای طبقه بندی ، با شروع ماتریس سردرگمی بنیادی ارائه می دهد. این جزئیات معیارهای متداول مانند دقت ، دقت و یادآوری ، توضیح موارد و محدودیت های استفاده ایده آل آنها ، به ویژه با داده های نامتوازن. این راهنما همچنین اقدامات پیشرفته تری مانند ROC AUC ، از دست دادن ورود به سیستم و ضریب PHI را با استفاده از مطالعات موردی عملی برای نشان دادن کاربرد آنها پوشش می دهد. این امر بر اهمیت انتخاب معیارها بر اساس نیازهای خاص پروژه و اهداف تجاری تأکید می کند.
اگر علاقه مند به انتشار با AI هستید ، دستورالعمل های ما را بررسی کرده و ثبت نام کنیدبشر اگر این سیاست ها و استانداردهای تحریریه ما را رعایت کند ، کار شما را به شبکه خود منتشر خواهیم کرد.
منتشر شده از طریق به سمت هوش مصنوعی