Google Cloud en NVIDIA breiden hun partnerschap uit om de ontwikkeling van AI te schalen.

In een beweging die belooft een significante boost te geven aan de ontwikkeling en adoptie van generatieve kunstmatige intelligentie (AI), kondigden Google Cloud en NVIDIA vandaag een verdieping van hun partnerschap aan. Het doel is om de machine learning (ML) gemeenschap te voorzien van technologie die hun inspanningen versnelt om eenvoudig generatieve AI-toepassingen te bouwen, op te schalen en te beheren.

Als onderdeel van deze uitgebreide overeenkomst kondigde Google aan dat het het nieuwe NVIDIA Grace Blackwell AI-computerplatform zal adopteren, evenals de NVIDIA DGX Cloud-service op Google Cloud. Bovendien is het DGX™ Cloud-platform met NVIDIA H100-technologie nu algemeen beschikbaar op Google Cloud.

Voortbouwend op hun recente samenwerking om de open model familie Gemma te optimaliseren, zal Google ook de NVIDIA NIM-inferentiemicroservices adopteren om ontwikkelaars een open en flexibel platform te bieden voor training en implementatie met hun voorkeurstools en -frameworks. De bedrijven hebben ook ondersteuning aangekondigd voor JAX op NVIDIA GPU’s en Vertex AI-instanties aangedreven door NVIDIA H100 en L4 Tensor Core GPU’s.

“De kracht van ons langdurige partnerschap met NVIDIA begint op hardwareniveau en strekt zich uit door ons gehele portfolio, van de nieuwste generatie GPU-accelerators tot de software-ecosystem en ons beheerde platform Vertex AI”, zei Google Cloud CEO Thomas Kurian. “Samen met NVIDIA is ons team toegewijd om een zeer toegankelijk, open en uitgebreid AI-platform te leveren voor ML-ontwikkelaars.”

Op zijn beurt merkte Jensen Huang, oprichter en CEO van NVIDIA, op: “Bedrijven zijn op zoek naar oplossingen die hen in staat stellen om het maximale uit generatieve AI te halen in weken en maanden in plaats van jaren. Met uitgebreide infrastructuuraanbiedingen en nieuwe integraties met het volledige AI-stack van NVIDIA, blijft Google Cloud klanten een open en flexibel platform bieden om generatieve AI-toepassingen gemakkelijk op te schalen.”

De nieuwe integraties tussen NVIDIA en Google Cloud bouwen voort op de langdurige toewijding van de bedrijven om de AI-gemeenschap te voorzien van toonaangevende capaciteiten op elk niveau van de AI-stack. Belangrijke componenten van de uitbreiding van het partnerschap omvatten:

  • Adoptie van NVIDIA Grace Blackwell: het nieuwe Grace Blackwell-platform stelt organisaties in staat om real-time inferentie uit te voeren op grote taalmodellen met biljoenen parameters. Google past het platform toe voor verschillende interne implementaties en zal een van de eerste cloudproviders zijn die instanties met Blackwell-technologie aanbiedt.
  • DGX Cloud met Grace Blackwell-technologie komt naar Google Cloud: Google brengt NVIDIA GB200 NVL72-systemen, die 72 Blackwell GPU’s en 36 Grace CPU’s combineren, verbonden door vijfde generatie NVLink®, naar zijn zeer schaalbare en hoogwaardige cloudinfrastructuur. Ontworpen voor efficiënte training en inferentie in een tijdperk van biljoenen parameters LLM’s, zullen de NVIDIA GB200 NVL72-systemen beschikbaar zijn via DGX Cloud, een AI-platform dat ondernemingsontwikkelaars een serverloze ervaring biedt voor het bouwen en bedienen van LLM’s. DGX Cloud is nu algemeen beschikbaar in Google Cloud-VM A3-instanties met NVIDIA H100 Tensor Core GPU’s.
  • Ondersteuning voor JAX op GPU: Google Cloud en NVIDIA hebben samengewerkt om de voordelen van JAX naar de NVIDIA GPU’s te brengen, waardoor toegang tot training van LLM op grote schaal wordt uitgebreid binnen de bredere ML-gemeenschap. JAX is een high-performance machine learning framework dat compiler-georiënteerd en Python-native is, waardoor het een van de gemakkelijkst te gebruiken en hoogst presterende frameworks is voor LLM-training. AI-professionals kunnen nu JAX gebruiken met NVIDIA H100 GPU’s op Google Cloud via MaxText en Accelerated Processing Kit (XPK).
  • NVIDIA NIM op Google Kubernetes Engine (GKE): NVIDIA NIM-inferentiemicroservices, onderdeel van het NVIDIA AI Enterprise softwareplatform, zullen geïntegreerd worden in GKE. Gebaseerd op inferentiemotoren waaronder TensorRT-LLM™, helpt NIM generatieve AI-implementatie in bedrijven te versnellen, ondersteunt een breed scala van toonaangevende AI-modellen en zorgt voor een naadloze en schaalbare AI-inferentie.
  • Ondersteuning voor NVIDIA NeMo: Google Cloud heeft de implementatie van het NVIDIA NeMo™-framework op zijn platform vergemakkelijkt via Google Kubernetes Engine (GKE) en Google Cloud HPC Toolkit. Hierdoor kunnen ontwikkelaars het trainen en bedienen van generatieve AI-modellen automatiseren en opschalen, en snel kant-en-klare omgevingen implementeren via aanpasbare blauwdrukken die het ontwikkelingsproces opstarten. NVIDIA NeMo, onderdeel van NVIDIA AI Enterprise, is ook beschikbaar op Google Marketplace, en biedt klanten een andere manier om eenvoudig toegang te krijgen tot NeMo en andere framewor