این شرکت فناوری در 30 اکتبر در اجلاس App Day & Infrastructure Summit اعلام کرد که Google Cloud زیرساخت ابر هوش مصنوعی را با TPUهای جدید و پردازندههای گرافیکی NVIDIA بهبود میبخشد.
اکنون در پیش نمایش برای مشتریان ابری، نسل ششم NPU Trillium به بسیاری از آنها قدرت می دهد Google Cloudمحبوب ترین سرویس ها، از جمله جستجو و نقشه ها.
Mark Lohmeyer، معاون و مدیر ارشد زیرساختهای محاسباتی و هوش مصنوعی در Google Cloud در نامهای نوشت: «از طریق این پیشرفتها در زیرساختهای هوش مصنوعی، Google Cloud به کسبوکارها و محققان این امکان را میدهد تا مرزهای نوآوری هوش مصنوعی را دوباره تعریف کنند. بیانیه مطبوعاتی. ما مشتاقانه منتظر برنامه های متحول کننده هوش مصنوعی هستیم که از این پایه قدرتمند پدید می آیند.
Trillium NPU فرآیندهای مولد هوش مصنوعی را سرعت می بخشد
همانطور که مدل های زبان بزرگ رشد می کنند، سیلیکون نیز باید از آنها پشتیبانی کند.
نسل ششم NPU Trillium آموزش، استنتاج و ارائه برنامه های کاربردی مدل زبانی بزرگ را با سرعت 91 اگزافلاپس در یک کلاستر TPU ارائه می دهد. Google Cloud گزارش می دهد که نسخه نسل ششم افزایش 4.7 برابری در حداکثر عملکرد محاسباتی در هر تراشه در مقایسه با نسل پنجم ارائه می دهد. ظرفیت حافظه با پهنای باند بالا و پهنای باند اتصال Interchip را دو برابر می کند.
Trillium نیازهای محاسباتی بالای مدل های انتشار در مقیاس بزرگ مانند Stable Diffusion XL را برآورده می کند. در اوج خود، زیرساخت Trillium میتواند دهها هزار تراشه را به هم متصل کند و چیزی را ایجاد کند که Google Cloud به عنوان «یک ابر رایانه در مقیاس ساختمان» توصیف میکند.
موهان پیچیکا، مدیر محصول گروه زیرساخت هوش مصنوعی در Google Cloud، در ایمیلی به TechRepublic گفت که مشتریان سازمانی درخواست شتاب هوش مصنوعی مقرونبهصرفهتر و افزایش عملکرد استنتاج کردهاند.
در بیانیه مطبوعاتیدنیز تونا، مشتری Google Cloud، رئیس توسعه در شرکت توسعه اپلیکیشن موبایل HubX، خاطرنشان کرد: «ما از Trillium TPU برای ایجاد متن به تصویر با MaxDiffusion & FLUX.1 استفاده کردیم و نتایج شگفتانگیز است! ما توانستیم چهار تصویر را در 7 ثانیه تولید کنیم – این یک بهبود 35٪ در تاخیر پاسخ و 45٪ کاهش هزینه/تصویر در مقایسه با سیستم فعلی ما است!
ماشینهای مجازی جدید تحویل چیپ NVIDIA Blackwell را پیشبینی میکنند
در ماه نوامبر، گوگل ماشینهای مجازی A3 Ultra مجهز به پردازندههای گرافیکی NVIDIA H200 Tensor Core را به سرویسهای ابری خود اضافه خواهد کرد. A3 Ultra VM ها هوش مصنوعی یا بارهای کاری محاسباتی پرقدرت را در Google Cloud اجرا می کنند مرکز داده-شبکه وسیع با ترافیک 3.2 ترابیت بر ثانیه از GPU به GPU. آنها همچنین به مشتریان ارائه می دهند:
- ادغام با سخت افزار NVIDIA ConnectX-7.
- 2 برابر پهنای باند شبکه GPU به GPU در مقایسه با معیار قبلی، A3 Mega.
- تا 2 برابر عملکرد استنباط LLM بالاتر.
- تقریبا دو برابر ظرفیت حافظه
- 1.4 برابر پهنای باند حافظه بیشتر
ماشین های مجازی جدید از طریق Google Cloud یا Google Kubernetes Engine در دسترس خواهند بود.
ببینید: پردازندههای گرافیکی Blackwell هستند برای سال بعد فروخته شدجنسن هوانگ، مدیر عامل انویدیا، در نشست سرمایه گذاران در ماه اکتبر گفت.
بهروزرسانیهای اضافی زیرساخت Google Cloud از صنعت رو به رشد LLM سازمانی پشتیبانی میکنند
به طور طبیعی، زیرساختهای Google Cloud با یکدیگر همکاری میکنند. به عنوان مثال، A3 Mega توسط شبکه مرکز داده مشتری پشتیبانی می شود، که به زودی شاهد بهبود تمرکز بر حجم کاری هوش مصنوعی خود خواهد بود.
با آداپتور شبکه جدید خود، قابلیت تخلیه میزبان Titanium اکنون به طور مؤثرتری با نیازهای متنوع بارهای کاری هوش مصنوعی سازگار است. آداپتور شبکه Titanium ML از سختافزار NVIDIA ConnectX-7 و شبکه همتراز ریلی 4 طرفه مرکز داده Google Cloud برای ارائه 3.2 ترابیت بر ثانیه ترافیک GPU به GPU استفاده میکند. مزایای این ترکیب به مشتری، شبکه سوئیچینگ مدار نوری Google Cloud می رسد.
یکی دیگر از عناصر کلیدی زیرساخت هوش مصنوعی Google Cloud، قدرت پردازش مورد نیاز برای آموزش و استنتاج هوش مصنوعی است. جمع آوری تعداد زیادی از شتاب دهنده های هوش مصنوعی، Hypercompute Cluster است که حاوی A3 Ultra VMs است. Hypercompute Cluster را می توان از طریق یک فراخوانی API پیکربندی کرد، از کتابخانه های مرجع مانند JAX یا PyTorch استفاده کرد و از مدل های هوش مصنوعی باز مانند Gemma2 و Llama3 برای محک زدن پشتیبانی کرد.
مشتریان Google Cloud می توانند در ماه نوامبر به Hypercompute Cluster با ماشین های مجازی A3 Ultra و آداپتورهای شبکه Titanium ML دسترسی داشته باشند.
Pichika گفت: این محصولات به درخواست های مشتریان سازمانی برای استفاده بهینه از GPU و دسترسی ساده به زیرساخت هوش مصنوعی با کارایی بالا پاسخ می دهند.
او از طریق ایمیل گفت: «Hypercompute Cluster راهحلی با کاربری آسان برای شرکتها فراهم میکند تا از قدرت ابر رایانههای هوش مصنوعی برای آموزش و استنتاج هوش مصنوعی در مقیاس بزرگ استفاده کنند.»
Google Cloud همچنین در حال آمادهسازی قفسههایی برای پردازندههای گرافیکی آینده NVIDIA Blackwell GB200 NVL72 است که پیشبینی میشود در اوایل سال 2025 توسط hyperscalers مورد استفاده قرار گیرد. پس از در دسترس قرار گرفتن، این پردازندههای گرافیکی به سری VM مبتنی بر پردازنده Axion Google متصل میشوند و از پردازندههای Arm سفارشی Google استفاده میکنند.
Pichika از بیان مستقیم اینکه آیا زمان Hypercompute Cluster یا Titanium ML به تاخیر در تحویل GPUهای Blackwell مرتبط است یا خیر، خودداری کرد: “ما هیجان زده هستیم که به کار خود با هم ادامه دهیم تا بهترین هر دو فناوری را به مشتریان ارائه دهیم.”
دو سرویس دیگر، سرویس ذخیره سازی بلوک متمرکز بر هوش مصنوعی Hyperdisk ML و سیستم فایل موازی متمرکز AI/HPC Parallestore، اکنون به طور کلی در دسترس هستند.
خدمات Google Cloud در بسیاری از موارد قابل دسترسی است مناطق بین المللی.
رقبای Google Cloud برای میزبانی هوش مصنوعی
Google Cloud در درجه اول با خدمات وب آمازون و Microsoft Azure در میزبانی ابری مدل های زبان بزرگ رقابت می کند. علیبابا، آیبیام، اوراکل، ویامور و دیگران، منابع مشابهی از منابع مدل زبانی بزرگ را ارائه میکنند، اگرچه همیشه در یک مقیاس نیستند.
با توجه به Statistaدر سه ماهه اول 2024، Google Cloud 10٪ از بازار خدمات زیرساخت ابری را در سراسر جهان در اختیار داشت. Amazon AWS 34٪ و Microsoft Azure 25٪ را در اختیار داشتند.
منبع: https://www.techrepublic.com/article/google-cloud-trillium-nvidia-ai-infrastructure/