نویسنده (ها): ساگلانی
در ابتدا منتشر شده در به سمت هوش مصنوعیبشر
قسمت چهارم: انتزاع LLM لایه: اتصال مدل ها به MCP
در پست قبلی ما ، ما یک مرکز MCP Client Minimal ، یک سرویس FastAPI سبک وزن ساختیم که ابزارهایی را از سرورهای تخصصی و درخواست های اجرای مسیرهای ما کشف می کند. این مرکز یک رابط کاربری تمیز ارائه می دهد ، اما فقط نیمی از داستان است. اکنون ما به اطلاعات نیاز داریم: LLM میزبان که تصمیم می گیرد از کدام ابزار استفاده کند و چه موقع.
این چالش فقط اتصال به LLM نیست. این در حال ایجاد یک انتزاع است که به ما امکان می دهد مدل ها را بدون لمس اکوسیستم ابزار خود مبادله کنیم. انتخاب امروز ممکن است O3 ، GPT-4.1 ، Llama-4-Maverick ، Deepseek R1/V3 یا Claude Sonnet 3.7 باشد ، اما ما شاهد هستیم که بسیاری از LLM ها هر ماه بیرون می آیند. حتی ممکن است بخواهیم از برخی LLM های محلی با استفاده از Ollama یا LMStudio استفاده کنیم. معماری ما باید ضمن حفظ تعامل ابزار مداوم ، این انعطاف پذیری را کنترل کند.
ما این کار را با دو مؤلفه اصلی حل خواهیم کرد. اول ، یک سیستم ارائه دهنده که جزئیات خاص مدل را از بین می برد. این که آیا ما با API OpenAi تماس می گیریم ، با استفاده از نقطه پایانی سازگار با OpenAi Groq ، یا اتصال به Anthropic ، بقیه کد ما نیازی به دانستن تفاوت ندارد. دوم ، ما یک مشتری LLM MCP ایجاد خواهیم کرد که حلقه کشف-کشف را کنترل می کند ، ابزار تجزیه و تحلیل ابزار از خروجی LLM و نتایج تغذیه را به تصمیم بعدی باز می گرداند.
این جدایی یک الگوی قدرتمند ایجاد می کند: … وبلاگ کامل را به صورت رایگان در رسانه بخوانیدبشر
منتشر شده از طریق به سمت هوش مصنوعی
منبع: https://towardsai.net/p/artificial-intelligence/ai-engineers-handbook-to-mcp-architecture-2