Hewlett Packard Enterprise: Versnelling van AI-opleiding met kant-en-klare oplossingen aangedreven door NVIDIA

Hewlett Packard Enterprise (HPE) heeft een supercomputing oplossing voor generatieve kunstmatige intelligentie uitgebracht, speciaal ontworpen voor grote bedrijven, onderzoeksinstituten en overheidsorganisaties. Dit nieuwe systeem is bedoeld om de training en afstemming van kunstmatige intelligentie (KI) modellen te versnellen met behulp van privé datasets. Het omvat een set softwaretools die klanten toestaat om modellen te trainen en af te stemmen en AI-toepassingen te ontwikkelen, evenals supercomputers met vloeistofkoeling, versnelde computing, netwerken, opslag en diensten om organisaties te helpen de waarde van AI sneller te ontgrendelen.

Justin Hotard, uitvoerend vicepresident en algemeen directeur van HPC, AI & Labs bij Hewlett Packard Enterprise, benadrukte de behoefte aan specifieke oplossingen om de generatieve KI effectief te ondersteunen, met de nadruk op samenwerking met NVIDIA om een native AI-oplossing te bieden die de training van AI-modellen en hun resultaten aanzienlijk versnelt.

Softwaretools Om AI-toepassingen Aan Te Drijven

De softwaretools zijn een sleutelcomponent van deze supercomputing oplossing voor generatieve AI. Geïntegreerd met de HPE Cray supercomputing technologie, gebaseerd op dezelfde krachtige architectuur die wordt gebruikt in ’s werelds snelste supercomputer en aangedreven door NVIDIA Grace Hopper GH200 superchips, biedt dit systeem ongekende schaal en prestaties die nodig zijn voor grote AI-werklasten, zoals het trainen van grote taalmodellen (LLM) en deep learning recommendation models (DLRM). Door gebruik te maken van HPE’s Machine Learning Development Environment op dit systeem, werd het 70 miljard parameters tellend Llama 2-model in minder dan 3 minuten getuned, wat direct resulteert in een snellere tijd tot waarde voor klanten. HPE’s geavanceerde supercomputing mogelijkheden, ondersteund door NVIDIA-technologie, verbeteren de systeemprestaties met 2-3X.

Ian Buck, vicepresident van Hyperscale en HPC bij NVIDIA, sprak over hoe generatieve AI elk industrieel en wetenschappelijk streven transformeert, en hoe de samenwerking met HPE klanten de benodigde prestaties zal bieden om doorbraken te bereiken in hun generatieve AI-initiatieven.

Een Omvattende AI-oplossing

De supercomputing oplossing voor generatieve AI is een geïntegreerde aanbieding, speciaal gebouwd voor AI, inclusief end-to-end technologieën en diensten:

  • AI/ML Versnelling Software: Een set van drie softwaretools die klanten zullen helpen om AI-modellen te trainen en af te stemmen en hun eigen AI-toepassingen te creëren.
  • Ontworpen Voor Schaalbaarheid: Gebaseerd op de HPE Cray EX2500, een exascale-klasse systeem, en met de toonaangevende NVIDIA GH200 Grace Hopper superchips in de industrie, kan de oplossing opschalen tot duizenden grafische verwerkingseenheden (GPU’s) met de mogelijkheid om de volledige capaciteit van de nodes te wijden aan een enkele AI-taak, voor een snellere tijd tot waarde.
  • Een Netwerk Voor Realtime AI: HPE Slingshot Interconnect biedt een hoogwaardig netwerk gebaseerd op Ethernet, ontworpen om exascale-klasse werklasten te ondersteunen. Deze aanpasbare interconnect supercharged de prestaties voor het gehele systeem door een extreem snelle hogesnelheidsnetwerk mogelijk te maken.
  • Turnkey Eenvoud: De oplossing wordt aangevuld met HPE Complete Care Services die wereldwijde specialisten biedt voor configuratie, installatie en volledige levenscyclusondersteuning om de adoptie van AI te vereenvoudigen.

Naar Een Duurzamere Toekomst van Supercomputing en AI

Tegen 2028 wordt geschat dat de groei van AI-werklasten ongeveer 20 gigawatt aan vermogen in datacenters zal vereisen. Klanten zullen oplossingen nodig hebben die een nieuw niveau van energie-efficiëntie bieden om hun koolstofvoetafdruk te minimaliseren. Energie-efficiëntie is cruciaal voor de computing initiatieven van HPE, die oplossingen leveren met vloeistofkoelingsmogelijkheden die tot een 20% verbetering in de prestaties per kilowatt kunnen bereiken in vergelijking met luchtgekoelde oplossingen, en bovendien 15% minder energie verbruiken.

Tegenwoordig levert HPE de meeste van de wereldwijd energie-efficiëntste supercomputers, met behulp van directe vloeistofkoeling (DLC), een kenmerk dat is opgenomen in de supercomputing oplossing voor generatieve AI. Deze technologie maakt niet alleen een efficiënte koeling van systemen mogelijk, maar vermindert ook het energieverbruik voor toepassingen die veel computervermogen vereisen.

HPE is uniek gepositioneerd om organisaties te helpen de krachtigste computertechnologie in te zetten om vooruitgang te boeken in hun AI-doelen, terwijl zij hun energieverbruik verminderen. Deze combinatie van toonaangevende prestaties, energie-efficiëntie en uitgebreide ondersteuning plaatst HPE op de voorgrond van de AI-revolutie, en voorziet bedrijven, onderzoeksinstituten en overheidsorganisaties van de tools die nodig zijn om innovatie te stimuleren en significante vooruitgang te boeken in hun generatieve AI-initiatieven.

Met deze nieuwe turnkey-oplossing, aangedreven door de viervoudige NVIDIA Grace Hopper GH200 Superchip configuratie, versnelt HPE niet alleen de AI-training, maar stelt het ook een nieuwe standaard voor AI-adoptie in onderzoekscentra en grote bedrijven, en garandeert een significante verbetering in de tijd tot waarde en versnelt de training tot 2-3 keer. De belofte van HPE om meer duurzame supercomputing technologie te leveren is een getuigenis van haar toewijding aan verantwoordelijke innovatie en de vooruitgang van computing voor de toekomst van AI.

bron: HP