IBM و AMD اعلام کرده اند که برای بهبود عملکرد و بهره وری انرژی همکاری دارند هوش مصنوعی مولد مدل ها و برنامه های محاسباتی با کارایی بالا
این شرکتها قصد دارند شتابدهندههای AMD Instinct MI300X را بهعنوان سرویسی برای مشتریان سازمانی در IBM Cloud در نیمه اول سال ۲۰۲۵ برای بارهای کاری استنتاج مولد هوش مصنوعی در دسترس قرار دهند.
شتابدهندهها با پلتفرم داده و هوش مصنوعی watsonx IBM ادغام میشوند تا منابع زیرساخت هوش مصنوعی اضافی را برای مقیاسبندی حجم کاری هوش مصنوعی در محیطهای ابری ترکیبی فراهم کنند.
همچنین پلتفرمهای Red Hat Enterprise Linux AI و Red Hat OpenShift AI را قادر میسازد تا مدلهای زبان بزرگ خانواده Granite (LLM) را با ابزار تراز با استفاده از InstructLab در شتابدهندههای MI300X اجرا کنند.
فیلیپ گویدو، معاون اجرایی و مدیر ارشد تجاری AMD گفت: «از آنجایی که شرکتها به استفاده از مدلها و مجموعههای داده بزرگتر هوش مصنوعی ادامه میدهند، بسیار مهم است که شتابدهندههای درون سیستم بتوانند بارهای کاری فشرده را با عملکرد بالا و انعطافپذیری در مقیاس پردازش کنند.
شتابدهندههای AMD Instinct همراه با نرمافزار AMD ROCm پشتیبانی گستردهای از جمله IBM watsonx AI، Red Hat Enterprise Linux AI و Red Hat OpenShift AI را برای ایجاد چارچوبهای پیشرو با استفاده از این ابزارهای قدرتمند اکوسیستم باز ارائه میدهند. هدف همکاری ما با IBM Cloud این است که به مشتریان اجازه دهیم استنباط هوش مصنوعی مولد را بدون مانع از هزینه، عملکرد یا کارایی اجرا و مقیاسبندی کنند.
شرکا قصد دارند از قابلیتهای امنیتی و انطباق IBM Cloud برای پشتیبانی از صنایع بسیار تحت نظارت استفاده کنند.
AMD و IBM Cloud در مورد آوردن هوش مصنوعی به شرکتها دیدگاه یکسانی دارند. آلن پیکوک، مدیر کل IBM Cloud گفت: ما متعهد هستیم که قدرت هوش مصنوعی را به مشتریان سازمانی بیاوریم، به آنها کمک کنیم نتایج خود را اولویت بندی کنند و اطمینان حاصل کنیم که قدرت انتخاب در مورد استقرار هوش مصنوعی خود را دارند.
استفاده از شتابدهندههای AMD در IBM Cloud به مشتریان سازمانی ما گزینه دیگری را میدهد تا بتوانند نیازهای هوش مصنوعی سازمانی خود را برآورده کنند، در حالی که هدف آن کمک به آنها در بهینهسازی هزینه و عملکرد است.
شتاب دهنده های AMD Instinct MI300X دارای 192 گیگابایت حافظه با پهنای باند بالا برای پشتیبانی از استنتاج مدل های بزرگ و تنظیم دقیق هستند. ظرفیت حافظه بیشتر به این معنی است که مدلهای بزرگتر میتوانند با پردازندههای گرافیکی کمتری کار کنند، که میتواند هزینهها را کاهش دهد.
معماری پیشنهادی دسترسی به شتابدهندههای AMD Instinct MI300X را بهعنوان یک سرویس در سرورهای مجازی ابری IBM برای VPC و از طریق پشتیبانی کانتینری با سرویس IBM Cloud Kubernetes و IBM Red Hat OpenShift در IBM Cloud ارائه میدهد. به گفته این شرکتها، این میتواند به بهینهسازی عملکرد و امنیت برای شرکتهایی که برنامههای هوش مصنوعی را اجرا میکنند، کمک کند.
منبع: https://aibusiness.com/generative-ai/ibm-partners-with-amd-expands-ai-accelerator-offerings