نویسنده (ها): ناوین کریشنان
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
عظیم مدل های بزرگ زبان (LLMS) عناوین حاکم ، نمایش های چشمگیر تولید متن و درک مطلب. با این حال ، یک موج جدید در حال هجوم است – دوران مدل های زبان کوچک (SLM). این مدل های جمع و جور و در عین حال با تعجب آور ، وضع موجود را به چالش می کشند و ثابت می کنند که عملکرد استثنایی همیشه به اندازه و منابع عظیم نیاز ندارد. مایکروسافت با خانواده Phi Models خود در صدر این حرکت قرار گرفته است. پس از موفقیت PHI-3 ، که توانایی های قابل توجهی را برای اندازه آن نشان داد ، مایکروسافت با معرفی مدل های استدلال PHI-4 ، جهش قابل توجهی دیگر را به پیش برد.
این اضافات جدید PHI-4-repesioning ، Phi-4-repeding-plus و Phi-4-mini-repasing-به طور خاص برای برتری در کارهای استدلال پیچیده طراحی شده اند ، دامنه ای که قبلاً تصور می شد قلمرو منحصر به فرد مدل های بسیار بزرگتر است. آنها یک لحظه مهم را نشان می دهند ، و قابلیت های استدلال پیچیده ای را در دسترس قرار می دهند تا طیف وسیع تری از برنامه ها و سخت افزار را در دسترس قرار دهند.
خانواده استدلال PHI-4: بیش از فقط کلمات
قبل از ورود به مشخصات مدل های PHI-4 ، درک این مسئله مفید است که چه چیزی “مدل های استدلال” را از هم جدا می کند. در حالی که مدل های زبان استاندارد در پیش بینی کلمه بعدی در یک دنباله برتری دارند ، مدل های استدلال برای ادامه کار آموزش داده می شوند. آنها برای مقابله با مشکلات پیچیده ای که نیاز به شکستن وظایف به چندین مرحله ، انجام چک های داخلی و اتصال منطقی قطعات اطلاعاتی دارند ، از تکنیک هایی مانند مقیاس بندی زمان استنباط استفاده می کنند. این اغلب شامل تولید مراحل میانی یا “زنجیره ای از فکر” برای رسیدن به پاسخ نهایی است ، توانایی ای که به طور معمول با مدل های مرزی بسیار بزرگتر و پرقدرت همراه است. مدلهای فسیل ، با وارد کردن این توانایی های استدلال پیشرفته به چارچوب کارآمدتر SLM ، پیشرفت قابل توجهی را نشان می دهند ، که از طریق درمان دقیق داده ها ، تقطیر از مدل های بزرگتر ، یادگیری تقویت کننده و تمرکز بر روی مصنوعی با کیفیت بالا حاصل می شود. مجموعه داده هابشر
PHI-4-PESSING: بنیاد
سنگ بنای این ترکیب جدید PHI-4-Fassing است. با 14 میلیارد پارامتر ، به طور قابل توجهی کوچکتر از بسیاری از مدل ها است که دارای قدرت استدلال مشابهی هستند. این فرآیند به طور خاص مدل را برای تولید زنجیره های استدلال دقیق آموزش می دهد ، و به طور مؤثر از مراحل محاسباتی اضافی در هنگام استنتاج برای حل مشکلات پیچیده استفاده می کند. دستاورد اصلی در اینجا نشان دادن این است که مدل های کوچکتر ، هنگامی که روی داده های فوق العاده با کیفیت بالا و هدفمند (از جمله مجموعه داده های مصنوعی) آموزش می بینند ، می توانند به طور مؤثر با همتایان بسیار بزرگتر خود در کارهای استدلال ، به ویژه در ریاضیات و علوم ، رقابت کنند.
PHI-4-repasing-plus: دقت افزایش یافته از طریق تقویت
با ایجاد مستقیم بر پایه و اساس که توسط PHI-4-Reasoning گذاشته شده است ، نوع “Plus” یک لایه اضافی از پالایش را از طریق یادگیری تقویت کننده (RL) معرفی می کند. در حالی که PHI-4-Passing از طریق SFT در مورد نمونه های استدلال آموزش دیده است ، PHI-4-Reseding-Plus با استفاده از تکنیک های RL آموزش های بیشتری را انجام می دهد.
PHI-4-MINI-RESESING: قدرت جمع و جور برای لبه
این مدل پارامتر 3.8 میلیارد پارامتر به طور خاص برای استدلال ریاضی و حل مسئله گام به گام در محیط هایی که قدرت محاسباتی یا تأخیر شبکه یک محدودیت است ، به طور خاص به طور خاص بهینه سازی می شود. Phi-4-Mini-repesing یک تعادل اساسی بین کارآیی و توانایی استدلال پیشرفته ایجاد می کند ، و آن را به عنوان کاندیدای ایده آل برای برنامه های کاربردی مانند سیستم های تدریس تعبیه شده ، دستیاران AI در دستگاه (مانند مواردی که برای Copilot+ PCS) و استقرار سبک در سیستم های موبایل یا لبه ای که در آن استدلال پیچیده ای بدون اتصال به اتصال ابری نیاز دارد ، تبدیل می کند.
معیارها: نکات برجسته عملکرد
گزارش های فنی و پست های وبلاگ مایکروسافت نتایج چشمگیر را در طیف وسیعی از معیارهای خواستار برجسته می کند ، نشان می دهد که این SLM ها به خوبی بالاتر از کلاس وزن خود هستند.
هر دو مدل پارامتر 14B PHI-4-Reseding و Phi-4-Reasoning-Plus قابلیت های قابل توجهی را به نمایش می گذارند. آنها به طور مداوم نه تنها از مدل پایه PHI-4 بهتر عمل می کنند بلکه مدلهای با وزن باز نیز به طور قابل توجهی بزرگتر مانند پارامتر 70 میلیارد DeepSeek-R1-Distill-LLAMA-70B در معیارهای مختلف استدلال. این شامل وظایف استدلال ریاضی پیچیده ، مانند مواردی است که در AIME 2025 (صلاحیت المپیاد ریاضی ایالات متحده آمریکا) یافت می شود ، جایی که طبق گزارش ها ، آنها بهتر از مدل 671 میلیارد پارامتر DeepSeek-R1 از مدل های Experts به عملکرد بهتر می رسند. آنها همچنین عملکرد قوی در دکتری نشان می دهند. سؤالات علمی سطح و معیارهای توانایی کلی مانند MMLUPRO (اندازه گیری دانش و درک زبان) ، Humanevalplus (برنامه نویسی) ، IFEVAL (آموزش زیر) و Arenahard (مهارت های عمومی).
PHI-4-MINI-RESONING COMPACT (پارامترهای 3.8B) نیز به طرز چشمگیری خود را حفظ می کند. برای بهره وری طراحی شده است ، هنوز هم می تواند از مدل پایه خود و چندین مدل بزرگتر (از جمله برخی از مدل های پارامتر 7B و 8B مانند Openthinker-7B و Deepseek-R1-Distill-Llama-8B) در معیارهای ریاضی محبوب مانند ریاضی و الماس GPQA استفاده کند.
دسترسی به PHI-4
مدل های PHI-4-PESTING ، PHI-4-DESOSING-PLUS و PHI-4-MINI-DESONING در کاتالوگ مدل Azure AI موجود است. از آنجا ، آنها اغلب می توانند به عنوان نقاط پایانی API بدون سرور مستقر شوند. این رویکرد پرداخت به عنوان شما ، دسترسی را ساده می کند و به توسعه دهندگان این امکان را می دهد تا بدون مدیریت زیرساخت های اساسی ، این قابلیت های استدلال قدرتمند را در برنامه های خود ادغام کنند.
با استفاده از Azure AI استنتاج Python SDK
یکی از ساده ترین راه های تعامل با مدل های مستقر در PHI-4 در لاجورد از طریق azure-ai-inference
Python SDK. در اینجا تفکیک نحوه شروع کار وجود دارد:
SDK را نصب کنید: اگر قبلاً این کار را نکرده اید ، بسته پیتون لازم را نصب کنید:
pip install azure-ai-inference
# Required imports
import os
from azure.ai.inference import ChatCompletionsClient
from azure.ai.inference.models import SystemMessage, UserMessage
from azure.core.credentials import AzureKeyCredentialendpoint = ">"
model_name = ">"
client = ChatCompletionsClient(
endpoint=endpoint,
credential=AzureKeyCredential("" ),
)
response = client.complete(
messages=[
SystemMessage(content="You are a helpful assistant."),
UserMessage(content="I am going to Paris, what should I see?"),
],
max_tokens=4096,
temperature=0.8,
top_p=0.95,
presence_penalty=0.0,
frequency_penalty=0.0,
model=model_name
)
print(response.choices[0].message.content)
یک مکالمه چند چرخشی اجرا کنید:
این نمونه مکالمه چند چرخش با API تکمیل گپ را نشان می دهد. هنگام استفاده از مدل برای یک برنامه گپ ، باید تاریخ آن مکالمه را مدیریت کرده و آخرین پیام ها را به مدل ارسال کنید.
import os
from azure.ai.inference import ChatCompletionsClient
from azure.ai.inference.models import AssistantMessage, SystemMessage, UserMessage
from azure.core.credentials import AzureKeyCredentialendpoint = ">"
model_name = ">"
client = ChatCompletionsClient(
endpoint=endpoint,
credential=AzureKeyCredential("" ),
)
response = client.complete(
messages=[
SystemMessage(content="You are a helpful assistant."),
UserMessage(content="I am going to Paris, what should I see?"),
AssistantMessage(content="Paris, the capital of France, is known for its stunning architecture, art museums, historical landmarks, and romantic atmosphere. Here are some of the top attractions to see in Paris:\n \n 1. The Eiffel Tower: The iconic Eiffel Tower is one of the most recognizable landmarks in the world and offers breathtaking views of the city.\n 2. The Louvre Museum: The Louvre is one of the world's largest and most famous museums, housing an impressive collection of art and artifacts, including the Mona Lisa.\n 3. Notre-Dame Cathedral: This beautiful cathedral is one of the most famous landmarks in Paris and is known for its Gothic architecture and stunning stained glass windows.\n \n These are just a few of the many attractions that Paris has to offer. With so much to see and do, it's no wonder that Paris is one of the most popular tourist destinations in the world."),
UserMessage(content="What is so great about #1?")
],
max_tokens=4096,
temperature=0.8,
top_p=0.95,
presence_penalty=0.0,
frequency_penalty=0.0,
model=model_name
)
print(response.choices[0].message.content)
خروجی را پخش کنید:
برای یک تجربه بهتر کاربر ، شما می خواهید پاسخ مدل را پخش کنید تا اولین نشانه زودتر ظاهر شود و از انتظار پاسخ های طولانی خودداری کنید.
import os
from azure.ai.inference import ChatCompletionsClient
from azure.ai.inference.models import SystemMessage, UserMessage
from azure.core.credentials import AzureKeyCredentialendpoint = ">"
model_name = ">"
client = ChatCompletionsClient(
endpoint=endpoint,
credential=AzureKeyCredential("" ),
)
response = client.complete(
stream=True,
messages=[
SystemMessage(content="You are a helpful assistant."),
UserMessage(content="I am going to Paris, what should I see?")
],
max_tokens=4096,
temperature=0.8,
top_p=0.95,
presence_penalty=0.0,
frequency_penalty=0.0,
model=model_name
)
for update in response:
if update.choices:
print(update.choices[0].delta.content or "", end="")
client.close()
موارد استفاده
قابلیت های استدلال پیشرفته بسته بندی شده در مدلهای کارآمد PHI-4 ، طیف متنوعی از برنامه های بالقوه را باز می کند و مرزهای آنچه را که AI می تواند به دست آورد ، به ویژه در سناریوهای محدود شده منابع ، فشار می آورد.
- برنامه های کاربردی: توانایی رسیدگی به کارهای پیچیده و چند مرحله ای ، نامزدهای قوی PHI-4-Passing و استدلال را برای نیرو دادن به عوامل هوش مصنوعی فراهم می کند. این عوامل به طور بالقوه می توانند گردش کار پیچیده را به صورت خودکار انجام دهند ، تحقیقات پیچیده ای انجام دهند یا کارهای برنامه ریزی پیچیده ای را که نیاز به تجزیه و اجرای منطقی دارند ، مدیریت کنند.
- ابزارهای آموزشی: Phi-4-Mini-Reasoning ، با تمرکز ریاضی قوی و اندازه جمع و جور ، به ویژه برای برنامه های آموزشی مناسب است. سیستم های تدریس هوشمند را تصور کنید که مستقیماً در سیستم عامل ها یا دستگاه های یادگیری تعبیه شده اند ، هدایت گام به گام و بازخورد شخصی را برای موضوعاتی مانند ریاضی و منطق فراهم می کنند.
- برنامه نویسی و توسعه: عملکرد قوی در معیارهای برنامه نویسی ، ابزار را به عنوان یک دستیار برنامه نویسی قدرتمند نشان می دهد ، قادر به درک منطق پیچیده ، تولید قطعه های کد ، اشکال زدایی و حتی به طور بالقوه حتی در حل مسئله الگوریتمی کمک می کند.
- حل مسئله ریاضی و علمی: مدل های نشان داده شده در استدلال در ریاضیات و علوم ، درهای کاربردی در تحقیق ، تجزیه و تحلیل داده ها و مهندسی را باز می کند و به متخصصان کمک می کند تا محاسبات پیچیده ، شبیه سازی یا تولید فرضیه را برطرف کنند.
- هوش مصنوعی: PHI-4-MINI-RESESING ، همراه با بهینه سازی هایی مانند Phi Silica برای Windows NPU ، راه را برای تجربه های قدرتمندتر AI به طور مستقیم در رایانه های شخصی (مانند Copilot+ PC) و دستگاه های تلفن همراه هموار می کند. این ویژگی هایی مانند جمع بندی آفلاین ، هوش متن پیشرفته و دستیاران محلی پیچیده تر را که به طور مداوم به اتصال ابر تکیه نمی کنند ، امکان پذیر می کند.
تأثیر گسترده تر خانواده استدلال PHI-4 در دموکراتیک کردن دسترسی به استدلال پیشرفته هوش مصنوعی نهفته است. مایکروسافت با ارائه قابلیت هایی که قبلاً به مدلهای عظیم در یک ردپای کوچکتر محدود شده بود ، به توسعه دهندگان این امکان را می دهد تا برنامه های هوشمند تری بسازند که می توانند در انواع گسترده تری از سخت افزار کار کنند و نوآوری را در زمینه های بی شماری تقویت کنند.
نتیجه گیری: مدل های کوچک ، استدلال بزرگ
مدل های استدلال PHI-4 مایکروسافت قابل توجه است قدم در تکامل هوش مصنوعی. آنها با بسته بندی توانایی های استدلال پیشرفته در مدلهای زبان کوچک بسیار کارآمد ، این تصور را به چالش می کشند که فقط تعداد پارامترهای عظیم می تواند توانایی های پیشرفته شناختی را به همراه داشته باشد. از بنیادی PHI-4-Pesasoning ، تقویت شده توسط تنظیم دقیق ، گرفته تا صحت PHI-4-repassing-plus با یادگیری تقویت شده ، و جمع و جور جمع و جور که برای استقرار لبه طراحی شده است ، این خانواده راه حل های متناسب برای نیازهای متنوع ارائه می دهد.
منتشر شده از طریق به سمت هوش مصنوعی
منبع: https://towardsai.net/p/machine-learning/phi-4-reasoning-models