تنظیم دقیق منابع از Deepseek-R1 | به سمت هوش مصنوعی


نویسنده (ها): Thuwarakesh Murallie

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

چگونه می توان Deepseek R1 را برای استدلال در مورد داده های خصوصی خود ایجاد کرد

این داستان فقط عضو بر ما است. برای دسترسی به همه رسانه ها ارتقا دهید.

عکس دن شیومارینی در Unsplash

ما دیگر به دنبال اعتبار سنجی نیستیم تا بگوییم Deepseek R1 بسیار جذاب است. واقعاً است

Deepseek می تواند عملکرد قابل مقایسه ای را برای Openai-O1 اما با بخشی از هزینه آن فراهم کند. دلیلش این است که مدل منبع باز است.

با این حال ، ما نمی توانیم از آن استفاده کنیم و از آن در برنامه های درجه تولید استفاده کنیم. هر مدل ، وزن باز یا اختصاصی ، هزینه استنتاج دارد که باید متناسب با بودجه شما باشد. نیازی به گفتن نیست ، هرچه پارامترهای بیشتری وجود داشته باشد ، هزینه های بیشتری نیز وجود دارد.

R1 Deepseek یک مدل پارامتر 671 میلیارد است. برای هر استنتاج داده شده ، حدود 37 میلیارد پارامتر فعال این کار را انجام می دهند کار برای شما برای میزبانی این مدل به صورت محلی ، حداقل 90 گیگابایت VRAM نیاز دارید.

در اینجا یک محاسبه پشت پرده از GPU حافظه مورد نیاز برای میزبانی مدل است.

برآورد VRAM برای میزبانی LLMS به صورت محلی – تصویر توسط نویسنده

اگر شما GPU خوشبختانه ، با این ورم بسیار زیاد ، این پایان جهان نیست.

البته می توانید یک GPU را از یک ارائه دهنده اجاره کنید. اما من در مورد آن صحبت نمی کنم.

Deepseek R1 را می توان با موفقیت در محبوب ترین GPU ها ، مانند RTX 3090 یا 4090 اجرا کرد. حتی می توانید آن را برای… وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/artificial-intelligence/resource-efficient-fine-tuning-of-deepseek-r1