Google Cloud زیرساخت هوش مصنوعی را با TPU های نسل ششم گسترش می دهد


این شرکت فناوری در 30 اکتبر در اجلاس App Day & Infrastructure Summit اعلام کرد که Google Cloud زیرساخت ابر هوش مصنوعی را با TPUهای جدید و پردازنده‌های گرافیکی NVIDIA بهبود می‌بخشد.

اکنون در پیش نمایش برای مشتریان ابری، نسل ششم NPU Trillium به بسیاری از آنها قدرت می دهد Google Cloudمحبوب ترین سرویس ها، از جمله جستجو و نقشه ها.

Mark Lohmeyer، معاون و مدیر ارشد زیرساخت‌های محاسباتی و هوش مصنوعی در Google Cloud در نامه‌ای نوشت: «از طریق این پیشرفت‌ها در زیرساخت‌های هوش مصنوعی، Google Cloud به کسب‌وکارها و محققان این امکان را می‌دهد تا مرزهای نوآوری هوش مصنوعی را دوباره تعریف کنند. بیانیه مطبوعاتی. ما مشتاقانه منتظر برنامه های متحول کننده هوش مصنوعی هستیم که از این پایه قدرتمند پدید می آیند.

Trillium NPU فرآیندهای مولد هوش مصنوعی را سرعت می بخشد

همانطور که مدل های زبان بزرگ رشد می کنند، سیلیکون نیز باید از آنها پشتیبانی کند.

نسل ششم NPU Trillium آموزش، استنتاج و ارائه برنامه های کاربردی مدل زبانی بزرگ را با سرعت 91 اگزافلاپس در یک کلاستر TPU ارائه می دهد. Google Cloud گزارش می دهد که نسخه نسل ششم افزایش 4.7 برابری در حداکثر عملکرد محاسباتی در هر تراشه در مقایسه با نسل پنجم ارائه می دهد. ظرفیت حافظه با پهنای باند بالا و پهنای باند اتصال Interchip را دو برابر می کند.

Trillium نیازهای محاسباتی بالای مدل های انتشار در مقیاس بزرگ مانند Stable Diffusion XL را برآورده می کند. در اوج خود، زیرساخت Trillium می‌تواند ده‌ها هزار تراشه را به هم متصل کند و چیزی را ایجاد کند که Google Cloud به عنوان «یک ابر رایانه در مقیاس ساختمان» توصیف می‌کند.

موهان پیچیکا، مدیر محصول گروه زیرساخت هوش مصنوعی در Google Cloud، در ایمیلی به TechRepublic گفت که مشتریان سازمانی درخواست شتاب هوش مصنوعی مقرون‌به‌صرفه‌تر و افزایش عملکرد استنتاج کرده‌اند.

در بیانیه مطبوعاتیدنیز تونا، مشتری Google Cloud، رئیس توسعه در شرکت توسعه اپلیکیشن موبایل HubX، خاطرنشان کرد: «ما از Trillium TPU برای ایجاد متن به تصویر با MaxDiffusion & FLUX.1 استفاده کردیم و نتایج شگفت‌انگیز است! ما توانستیم چهار تصویر را در 7 ثانیه تولید کنیم – این یک بهبود 35٪ در تاخیر پاسخ و 45٪ کاهش هزینه/تصویر در مقایسه با سیستم فعلی ما است!

ماشین‌های مجازی جدید تحویل چیپ NVIDIA Blackwell را پیش‌بینی می‌کنند

در ماه نوامبر، گوگل ماشین‌های مجازی A3 Ultra مجهز به پردازنده‌های گرافیکی NVIDIA H200 Tensor Core را به سرویس‌های ابری خود اضافه خواهد کرد. A3 Ultra VM ها هوش مصنوعی یا بارهای کاری محاسباتی پرقدرت را در Google Cloud اجرا می کنند مرکز داده-شبکه وسیع با ترافیک 3.2 ترابیت بر ثانیه از GPU به GPU. آنها همچنین به مشتریان ارائه می دهند:

  • ادغام با سخت افزار NVIDIA ConnectX-7.
  • 2 برابر پهنای باند شبکه GPU به GPU در مقایسه با معیار قبلی، A3 Mega.
  • تا 2 برابر عملکرد استنباط LLM بالاتر.
  • تقریبا دو برابر ظرفیت حافظه
  • 1.4 برابر پهنای باند حافظه بیشتر

ماشین های مجازی جدید از طریق Google Cloud یا Google Kubernetes Engine در دسترس خواهند بود.

ببینید: پردازنده‌های گرافیکی Blackwell هستند برای سال بعد فروخته شدجنسن هوانگ، مدیر عامل انویدیا، در نشست سرمایه گذاران در ماه اکتبر گفت.

به‌روزرسانی‌های اضافی زیرساخت Google Cloud از صنعت رو به رشد LLM سازمانی پشتیبانی می‌کنند

به طور طبیعی، زیرساخت‌های Google Cloud با یکدیگر همکاری می‌کنند. به عنوان مثال، A3 Mega توسط شبکه مرکز داده مشتری پشتیبانی می شود، که به زودی شاهد بهبود تمرکز بر حجم کاری هوش مصنوعی خود خواهد بود.

با آداپتور شبکه جدید خود، قابلیت تخلیه میزبان Titanium اکنون به طور مؤثرتری با نیازهای متنوع بارهای کاری هوش مصنوعی سازگار است. آداپتور شبکه Titanium ML از سخت‌افزار NVIDIA ConnectX-7 و شبکه هم‌تراز ریلی 4 طرفه مرکز داده Google Cloud برای ارائه 3.2 ترابیت بر ثانیه ترافیک GPU به GPU استفاده می‌کند. مزایای این ترکیب به مشتری، شبکه سوئیچینگ مدار نوری Google Cloud می رسد.

یکی دیگر از عناصر کلیدی زیرساخت هوش مصنوعی Google Cloud، قدرت پردازش مورد نیاز برای آموزش و استنتاج هوش مصنوعی است. جمع آوری تعداد زیادی از شتاب دهنده های هوش مصنوعی، Hypercompute Cluster است که حاوی A3 Ultra VMs است. Hypercompute Cluster را می توان از طریق یک فراخوانی API پیکربندی کرد، از کتابخانه های مرجع مانند JAX یا PyTorch استفاده کرد و از مدل های هوش مصنوعی باز مانند Gemma2 و Llama3 برای محک زدن پشتیبانی کرد.

مشتریان Google Cloud می توانند در ماه نوامبر به Hypercompute Cluster با ماشین های مجازی A3 Ultra و آداپتورهای شبکه Titanium ML دسترسی داشته باشند.

Pichika گفت: این محصولات به درخواست های مشتریان سازمانی برای استفاده بهینه از GPU و دسترسی ساده به زیرساخت هوش مصنوعی با کارایی بالا پاسخ می دهند.

او از طریق ایمیل گفت: «Hypercompute Cluster راه‌حلی با کاربری آسان برای شرکت‌ها فراهم می‌کند تا از قدرت ابر رایانه‌های هوش مصنوعی برای آموزش و استنتاج هوش مصنوعی در مقیاس بزرگ استفاده کنند.»

Google Cloud همچنین در حال آماده‌سازی قفسه‌هایی برای پردازنده‌های گرافیکی آینده NVIDIA Blackwell GB200 NVL72 است که پیش‌بینی می‌شود در اوایل سال 2025 توسط hyperscalers مورد استفاده قرار گیرد. پس از در دسترس قرار گرفتن، این پردازنده‌های گرافیکی به سری VM مبتنی بر پردازنده Axion Google متصل می‌شوند و از پردازنده‌های Arm سفارشی Google استفاده می‌کنند.

Pichika از بیان مستقیم اینکه آیا زمان Hypercompute Cluster یا Titanium ML به تاخیر در تحویل GPUهای Blackwell مرتبط است یا خیر، خودداری کرد: “ما هیجان زده هستیم که به کار خود با هم ادامه دهیم تا بهترین هر دو فناوری را به مشتریان ارائه دهیم.”

دو سرویس دیگر، سرویس ذخیره سازی بلوک متمرکز بر هوش مصنوعی Hyperdisk ML و سیستم فایل موازی متمرکز AI/HPC Parallestore، اکنون به طور کلی در دسترس هستند.

خدمات Google Cloud در بسیاری از موارد قابل دسترسی است مناطق بین المللی.

رقبای Google Cloud برای میزبانی هوش مصنوعی

Google Cloud در درجه اول با خدمات وب آمازون و Microsoft Azure در میزبانی ابری مدل های زبان بزرگ رقابت می کند. علی‌بابا، آی‌بی‌ام، اوراکل، وی‌ام‌ور و دیگران، منابع مشابهی از منابع مدل زبانی بزرگ را ارائه می‌کنند، اگرچه همیشه در یک مقیاس نیستند.

با توجه به Statistaدر سه ماهه اول 2024، Google Cloud 10٪ از بازار خدمات زیرساخت ابری را در سراسر جهان در اختیار داشت. Amazon AWS 34٪ و Microsoft Azure 25٪ را در اختیار داشتند.



منبع: https://www.techrepublic.com/article/google-cloud-trillium-nvidia-ai-infrastructure/