مقایسه مدل های Deepseek-R1: 32B در مقابل 70B در مقابل R1


نویسنده (ها): لورنتز یونگ

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

Deepseek در دنیای هوش مصنوعی امواج ایجاد کرده است. آنها چندین مدل را همزمان ارائه می دهند ، بنابراین کدام یک را باید انتخاب کنیم؟

این داستان فقط عضو بر ما است. برای دسترسی به همه رسانه ها ارتقا دهید.

Deepseek ، یک شرکت هوش مصنوعی چینی که در سال 2023 توسط لیانگ ونفنگ تأسیس شد ، با انتشار مدل Deepseek-R1 ، در هوش مصنوعی گام های قابل توجهی برداشت. این مدل زبان منبع باز توجه خود را به عملکرد خود در کارهای استدلال جلب کرده است ، و مدل هایی مانند OPEAI’s O1 را رقیب می کند. نکته قابل توجه ، Deepseek با بخشی از منابع مورد نیاز ، این امر را به دست آورد و پیشرفت سریع چین در فناوری هوش مصنوعی را برجسته کرد.

در کاوش در مورد پیشنهادات Deepseek ، من دو مدل آنها را ارزیابی کردم: Deepseek-R1-Distill-Qwen-32B و Deepseek-R1-Distill-Llama-70B. هر دو مدل برای بارگیری از وب سایت رسمی Ollama از طریق این لینک در دسترس هستند. (DeepSeek-R1) به عنوان مثال ، اگر می خواهید مدل 32B را که از نظر اندازه 20 گیگابایتی است ، بارگیری کنید ، می توانید فقط در این صفحه دستورالعمل را دنبال کنید.

PIP ابتدا Ollama را نصب کنید ، سپس این دستور “Ollama Run Deepseek-R1: 32B” را در ترمینال خود اجرا کنید. عکس توسط نویسنده.

برای اطلاعات بیشتر در مورد تحقیق و معماری Deepseek ، می توانید وب سایت رسمی Deepseek (Deepseek.com) را بررسی کنید.

من این مدل ها را بر روی پردازنده i7-14700kf 3.4 گیگاهرتز ، رم 32 گیگابایتی و یک NVIDIA RTX 4090 اجرا کردم GPU، با استفاده از WSL2.

مدل 32B بدون هیچ گونه اصلاح سیستم به راحتی اجرا شد. مدل 70B نیاز به تنظیم حافظه بر روی 24 گیگابایت دارد ، که من برای نظارت بر RAM از PSUTIL استفاده کردم … وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/comparing-deepseek-r1-models-32b-vs-70b-vs-r1