سرورهای MCP را در LLM های پیشرو آزمایش کنید-و حتی “GPT-OSS” + MCPS را به صورت رایگان امتحان کنید


نویسنده (ها): هیدیا

در ابتدا منتشر شده در به سمت هوش مصنوعیبشر

سرورهای MCP را در LLM های پیشرو آزمایش کنید-و حتی
اعتبار: لوکا در پگزل؛ ویرایش شده توسط من

مقدمه

مدل های بزرگ زبان (LLMS) با سرعت باورنکردنی در حال تحول هستند باهوش تر ، سریعتر و ارزان تر تقریباً هر ماه اخیراً ، حتی نسخه منبع باز چتپپ ، “GPT-OSS” ، ظاهر شده است

در همان زمان ، سرورهای MCP (پروتکل زمینه مدل) به ابزارهای قدرتمند و عملی بالغ شده اند. در حقیقت ، برای بسیاری از کارهای روزمره ، حتی LLM های کوچک و ارزان قیمت می توانند تماس های سرور MCP را به طور موثر اداره کنند.

این من را به یک سوال سوق داد:
👉 کدام کارهای MCP را می توان از مدل های ارزان قیمت تهیه کرد؟ و چگونه عملکرد ، هزینه و سرعت در بین ارائه دهندگان مختلف مقایسه می شود؟

برای تسهیل آزمایش ، من ایجاد کردم ابزار خط فرمان این به شما امکان می دهد تا به سرعت سرورهای مختلف MCP را با LLM های مختلف آزمایش کنید.
بله – از جمله GPT-OSS با رده های دسترسی رایگان!

👉 و اگر تا به حال ناامید کننده هستید GoogleGenerativeAIFetchError: 400 Bad Request هنگام تلاش برای جمینی با سرورهای MCP با استفاده از TypeScript – نگران نباشید. من نحوه عملکرد این ابزار در بخش آخر را پوشش می دهم.

چرا این ابزار؟

هنگام آزمایش ، من اغلب می خواستم چیزی مانند:

  • آیا یک کار MCP داده شده می تواند خوب اجرا شود GPT-5-Mini Openai (0.25 دلار / 2.00 دلار در هر میلیون دلار)؟
  • یا حتی در فوق العاده ارزان قیمت GPT-5-NANO (0.05 دلار / 0.40 دلار)؟
  • چطور Gemini 2.5 Flash-Lite، معروف به عملکرد ، کم هزینه و سهمیه رایگان؟
  • یا رعد و برق Cerebras + GPT-OSS-120B، با توان تا 3000 نشانه در ثانیه؟

این ابزار به شما امکان می دهد تمام این سناریوها را فقط با یک فایل پیکربندی ساده مقایسه کنید.

چگونه کار می کند

با نوشتن یک فایل پیکربندی ، می توانید به راحتی اجرا کنید همان مجموعه نمایش داده شد در برابر سرورهای مختلف MCP (به عنوان مثال ، مفهوم ، GitHub) و مقایسه پاسخ ها در LLMS.

در اینجا یک مثال ساده در JSON5 (نظرات پشتیبانی شده) آورده شده است:

{
"llm": {
"provider": "openai", "model": "gpt-5-mini"
// "provider": "anthropic", "model": "claude-3-5-haiku-latest"
// "provider": "google_genai", "model": "gemini-2.5-flash"
// "provider": "xai", "model": "grok-3-mini"
// "provider": "cerebras", "model": "gpt-oss-120b"
// "provider": "groq", "model": "openai/gpt-oss-20b"
},
"mcp_servers": {
"notion": { // use "mcp-remote" to access the remote MCP server
"command": "npx",
"args": ["-y", "mcp-remote", "https://mcp.notion.com/mcp"]
},
"github": { // can be accessed directly if no OAuth reqquired
"type": "http",
"url": "https://api.githubcopilot.com/mcp",
"headers": { "Authorization": "Bearer ${GITHUB_PERSONAL_ACCESS_TOKEN}" }
}
},
"example_queries": [
"Tell me about my Notion account",
"Tell me about my GitHub profile"
]
}

ویژگی های کلیدی:

  • قالب JSON5 → از نظرات و کاما های دنباله پشتیبانی می کند (مانند JSON)
  • متغیرهای محیط → از کلیدهای API سخت کدگذاری جلوگیری می کند (${ENVIRONMENT_VARIABLE_NAME} با مقدار آن جایگزین می شود)

از ارائه دهندگان LLM پشتیبانی می کند

  • Openai
  • وابسته به انسان شناسی
  • Google Gemini (نه ورتکس AI)
  • XAI
  • مغزی (برای سرعت و پشتیبانی از GPT-OSS-120B)
  • گرگ (برای سرعت و پشتیبانی از GPT-OSS-20B/120B)

👉 توجه: قالب خروجی است فقط متن (پاسخ های دیگر نادیده گرفته شده است).

نصب

دو نسخه در دسترس است:

  • نسخه NPM (TypeScript) – node.js 18+ نیاز دارد
npm install -g @h1deya/mcp-client-cli
  • نسخه پیپ (پایتون) – به پایتون 3.11+ نیاز دارد
pip install mcp-chat

اجرا با:

  • mcp-client-cli (نسخه NPM)
  • mcp-chat (نسخه PIP)

اجرای ابزار

قبل از پرش به سرورهای MCP در دنیای واقعی مانند مفهوم یا Github ، توصیه می کنم با یک شروع کنید حداقل راه اندازی ماسهبازیبشر به این ترتیب ، شما می توانید بدون نگرانی در مورد نشانه های API یا OAUTH ، ابزار را در محیط خود تأیید کنید.

تنظیم ساده

در اینجا یک پیکربندی اساسی وجود دارد که به دو سرور MCP محلی متصل می شود:

  • فایل سیستم MCP → اجازه می دهد تا LLM پرونده های محلی را تحت فهرست مشخص شده بخواند/بنویسد
  • MCP را واکشی کنید → به صفحات وب LLM اجازه می دهد
{
"llm": {
"provider": "openai", "model": "gpt-5-mini"
// "provider": "anthropic", "model": "claude-3-5-haiku-latest"
// "provider": "google_genai", "model": "gemini-2.5-flash"
// "provider": "xai", "model": "grok-3-mini"
// "provider": "cerebras", "model": "gpt-oss-120b"
// "provider": "groq", "model": "openai/gpt-oss-20b"
},

"example_queries": [
"Explain how an LLM works in a few sentences",
"Read file 'llm_mcp_config.json5' and summarize its contents",
"Summarize the top headline on bbc.com"
],

"mcp_servers": {
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"." // Can only manipulate files under the specified directory
]
},
"fetch": {
"command": "uvx",
"args": ["mcp-server-fetch"]
}
}
}

👉 این پیکربندی است بهترین مکان برای شروعبشر به هیچ توکن API خارجی احتیاج ندارد و به شما احساس می دهد که چگونه LLMS با سرورهای MCP ارتباط برقرار می کند.

  1. پیکربندی فوق را به عنوان ذخیره کنید llm_mcp_config.json5بشر
  2. کلیدهای API را در a اضافه کنید .env پرونده در صورت نیاز:
    ANTHROPIC_API_KEY=sk-ant-…
    OPENAI_API_KEY=sk-proj-…
    GOOGLE_API_KEY=AI…
    XAI_API_KEY=xai-…
    CEREBRAS_API_KEY=csk-…
    GROQ_API_KEY=gsk_…
  3. ابزار را از فهرست حاوی دو پرونده فوق الذکر اجرا کنید.
mcp-client-cli
mcp-chat

در زیر نمونه ای از خروجی کنسول هنگام راه اندازی ابزار آورده شده است:

% mcp-client-cli
Initializing model... { provider: 'cerebras', model: 'gpt-oss-120b' }

Initializing 2 MCP server(s)...

Writing MCP server log file: mcp-server-filesystem.log
Writing MCP server log file: mcp-server-fetch.log
[info] MCP server "filesystem": initializing with: {"command":"npx","args":["-y","@modelcontextprotocol/server-filesystem","."],"stderr":14}
[info] MCP server "fetch": initializing with: {"command":"uvx","args":["mcp-server-fetch"],"stderr":16}
[info] MCP server "fetch": connected
[info] MCP server "fetch": 1 tool(s) available:
[info] - fetch
[MCP Server Log: "filesystem"] Secure MCP Filesystem Server running on stdio
[info] MCP server "filesystem": connected
[MCP Server Log: "filesystem"] Client does not support MCP Roots, using allowed directories set from server args: [ '/Users/hideya/.../mcp-chat-test' ]
[info] MCP server "filesystem": 14 tool(s) available:
[info] - read_file


[info] - list_allowed_directories
[info] MCP servers initialized: 15 tool(s) available in total

Conversation started. Type 'quit' or 'q to end the conversation.

Exaample Queries (just type Enter to supply them one by one):
- Explain how an LLM works in a few sentences
- Read file 'llm_mcp_config.json5' and summarize its contents
- Summarize the top headline on bbc.com

Query: █

شما می توانید گزارش های اولیه سازی ، اتصالات MCP و سپس یک سریع را مشاهده کنید که می توانید نمایش داده شود – یا نمایش داده های نمونه را برای آزمایش چندین ترکیب از سرورهای MCP و LLM ها وارد کنید (اولین پرس و جو نمونه ای به عنوان یک بررسی بهداشتی برای رفتار LLM بدون درگیر شدن MCP انجام می شود). لطفاً توجه داشته باشید که پرونده های ورود به سیستم سرور MCP در فهرست فعلی ذخیره می شوند (سرور Fetch سیاهه ها را نمی نویسد ، بنابراین محتویات خالی است).

از --help گزینه ای برای یادگیری نحوه تغییر نام پرونده پیکربندی برای خواندن ، و دایرکتوری که در آن پرونده های ورود به سیستم ذخیره می شوند.

دسترسی رایگان به GPT-OSS

هر دو مغزی وت گرگ لایه های رایگان برای gpt-oss مدل ها و توسط این ابزار پشتیبانی می شوند:

معیارهای عملکرد (از اوت 2025):

  • GPT-5: 200 ~ توکن/ثانیه
  • Cerebras + GPT-OSS-120B: 3000 توکن/ثانیه 🤯
  • Groq + GPT-OSS-20B: 1000 ~ توکن/ثانیه
  • Groq + GPT-OSS-120B: 500 Tokens/sec

تنظیم حساب و کلید API ساده است و به کارت اعتباری احتیاج ندارد.

یادداشت های پیشرفته

  • اجرای: این یک مشتری MCP است که با Langchain.js ساخته شده است. این ابزار MCP را با استفاده از آداپتور سبک وزن سفارشی به ابزارهای Langchain تبدیل می کند (npmjs / پیپی). اعدام اجرا می شود عامل React Langgraphبشر
  • مسئله جوی: Gemini + Langchain.js آداپتورهای رسمی MCP گاهی اوقات به دلیل قوانین دقیق طرحواره JSON ، پرتاب می شوند 400 Bad Requestبشر نسخه NPM mcp-client-cliاین کار را با تحولات طرحواره در آداپتور MCP سفارشی قرار می دهد. SDK های پایتون با این مسئله روبرو نیستند. برای جزئیات بیشتر به بخش بعدی مراجعه کنید.
  • NPM vs PIP نسخه های مختلف:
    – NPM (mcp-client-cli) log های سرور محلی MCP نیز برای کنسول چاپ می شوند.
    – پیپ (mcp-chat) → فقط برای پرونده ثبت نام کنید ، و پیام های خطای پایتون می توانند مشکل باشند.

⚠ پیشرفته: رفع جمینی + langchain.js + سازگاری MCP – جلوگیری کنید 400 Bad Request تصادف

لطفا در صورت تمایل از این بخش کاملاً طولانی و فنی پرش کنید.

اگر تاکنون سعی کرده اید Google Gemini با هم langchain.js وت سرورهای MCP با طرح های پیچیده، ممکن است شما به این خطا رسیده باشید:

[GoogleGenerativeAI Error]: Error fetching from 
https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash:generateContent:
[400 Bad Request] Invalid JSON payload received.
Unknown name "anyOf" at ...

این پیام اغلب ده ها بار تکرار می شود ، سپس درخواست کاملاً از بین می رود.

اگر جستجو کردید GoogleGenerativeAIFetchError: [GoogleGenerativeAI Error] 400 Bad Requestدر این بخش علت و چگونگی راه اندازی آن هنگام استفاده از Langchain توضیح داده شده است (در صورت استفاده از Google Vertex AI می توانید از این کار جلوگیری کنید).

چرا این اتفاق می افتد

  • الزامات طرحواره جمینی بسیار سختگیرانه استبشر
    سرورهای MCP ابزارهای خود را با استفاده از طرح های انعطاف پذیر JSON تعریف می کنند. بیشتر LLM ها این موارد را خوب می پذیرند.
  • اما جمینی طرح های معتبر MCP را رد می کند اگر آنها دارای زمینه هایی باشند که انتظار ندارند (به عنوان مثال ، استفاده از آن anyOf).
  • نتیجه 400 درخواست بد – حتی اگر همان سرور MCP با OpenAI ، Anthropic یا XAI خوب عمل کند.
  • Google در Gemini SDK جدید خود اصلاحاتی را ارائه می دهد (@google/genai) ، اما Langchain.js به دلیل سوء استفاده از معماری ، نمی تواند آن را از بین ببرد.

👉 برای بسیاری از توسعه دهندگان ، این می تواند استفاده از جمینی با Langchain.js و برخی از سرورهای MCP را دشوار کند. حتی اگر فقط یک سرور MCP پیچیده در تعاریف MCP منتقل شود چند سرپرست، تمام استفاده از MCP متعاقب آن با خطای فوق شروع می شود.

چگونه این ابزار آن را برطرف می کند

این رابط خط فرمان (CLI) به طور خودکار طرحواره های ابزار MCP را به یک قالب سازگار با Gemini تبدیل می کند قبل از ارسال آنها این روند توسط انجام می شود مبدل MCP سبک سبک وزن سفارشی، که این برنامه در داخل استفاده می کند.

اگر ترجیح می دهید رفتار خطای خام را ببینید ، می توانید با تنظیم این مشکل را غیرفعال کنید:

{
"schema_transformations": false,
"llm": {
"provider": "google_genai", "model": "gemini-2.5-flash"
}
...
}

اگر شما کاربر جمینی که از خطاهای طرحواره ناامید شده است، این ویژگی می تواند شما را قادر به آزمایش سرورهای MCP ناکام کند.

اگر محیط توسعه شما نیاز به رفع مشکل دارد و می خواهید همان راه حل را برای Langchain.js اعمال کنید ، استفاده را در نظر بگیرید همان مبدل ابزار MCP تا زمانی که مسئله در SDK های رسمی یا سرورهای MCP برطرف نشود.

پایان

این ابزار خط فرمان باعث می شود:

  • با سرورهای مختلف LLM و MCP آزمایش کنید
  • عملکرد ، هزینه و سرعت معیار
  • مدل های منبع باز/پارامتر مانند gpt-oss، حتی به صورت رایگان

اگر در حال بررسی اکوسیستم LLM + MCP به سرعت در حال تحول هستید ، امیدوارم که این به شما کمک کند تنظیماتی را که برای پروژه های شما بهتر کار می کند ، مقایسه کرده و کشف کنید. 🙏✨

منتشر شده از طریق به سمت هوش مصنوعی



منبع: https://towardsai.net/p/machine-learning/test-mcp-servers-across-leading-llms-and-even-try-gpt-oss-mcps-for-free