Managed hosting door True
Onderstaande bijdrage is van een externe partij. De redactie is niet verantwoordelijk voor de geboden informatie.

AI-workloads stellen opslaginfrastructuur voor nieuwe uitdagingen

 

In moderne bedrijven ondergaat momenteel een volledige metamorfose, aangedreven door wat we de "AI-revolutie" zouden kunnen noemen. Het benutten van geavanceerde AI- of ML-gebaseerde toepassingen vormt de kern van deze transformatie, waarbij organisaties niet alleen concurrentievoordelen behalen, maar ook cruciale inzichten verwerven.

De pioniers in deze evolutie omarmen baanbrekende workloads, waaronder grote taalmodellen (LLM's) zoals ChatGPT. Daarnaast maken ze gebruik van ML-modellen die zijn opgebouwd op immense sets trainingsgegevens. Deze omvatten complexe 3D-modellen, animatie en virtuele realiteit, evenals simulaties en andere toepassingen die zowel data- als rekenintensief zijn. Deze gevarieerde toepassingen illustreren de breedte en diepte van de impact van AI en ML op de hedendaagse zakelijke landschap.

Voor een krachtige AI- of ML-oplossing moet een complete, uitgebreide set hardware samenwerken. Achter de flitsende rack-hardware die het GPU-gestuurde brein van een AI-cluster huisvest, zijn opslagsystemen met hoge doorvoer en lage latency nodig om het cluster productief te houden. Deze ondersteunen de I/O-kanalen die enorme hoeveelheden data voeden om modellen te trainen en complexe simulaties en analyses uit te voeren die nodig zijn om AI, ML en vergelijkbare workloads te ondersteunen. Een van de grootste uitdagingen voor bedrijven die willen profiteren van de groei van AI is het vinden van een opslagoplossing die geen knelpunten oplevert voor hun krachtige CPU's, GPU's of databaseclusters. De CPU's en GPU's moeten immers bezig worden gehouden om de TCO van het datacenter te verlagen.

Knelpunten in opslag vermijden

Wat er gebeurt in gedistribueerde en parallelle modi is dat voor de gedistribueerde bestandssystemen data binnenkomen van meerdere bronnen waar die gegevens op schaal verwerkt moeten worden via verschillende protocollen en voor verschillende toepassingen. In een typisch opslagsysteem worden metadata al snel een knelpunt. Je kunt namelijk maar zoveel gegevens door het systeem pompen als de metadata ondersteunen. Naarmate de hoeveelheid gegevens toeneemt, moet het vermogen om metadata te verwerken evenredig meegroeien.

Gedistribueerde opslag van WEKA is ontworpen om zo'n proportionele schaling te bieden. Dat verklaart waarom, ondanks het toevoegen van meer datacapaciteit aan een systeem of cluster, de I/O prestaties lineair blijven schalen vanaf acht (minimum aantal knooppunten voor een WEKA cluster) tot honderden opslagknooppunten. Het doet dit door knelpunten te elimineren en ondersteuning te bieden voor zelfs de zwaarste en meest veeleisende AI/ML (en andere vergelijkbare) werklasten.

Maar er komt meer kijken bij het optimaliseren van servers en clusters dan het leveren van schaalbare opslag met hoge prestaties en lage latentie. Bij het ontwerpen van een compleet systeem kan de focus niet uitsluitend liggen op een enkele functie of kenmerk. De hele architectuur moet samenwerken om de beoogde workloads te ondersteunen. Het ontwerpen van een systeem voor AI-applicaties betekent dus het creëren van een runtime-omgeving die vanaf de basis is opgebouwd om dataintensieve applicaties zowel snel als naar tevredenheid af te handelen. Wat de server doet met de data tijdens het verwerken van een AI workload is net zo essentieel als het dataverkeer in en uit een gegeven node.

NVMe te hulp

Een ander cruciaal aspect betreft het aantal PCIe 5.0 lanes. Deze technologie biedt servers de mogelijkheid om uitgebreidere configuraties van SSD's, NIC's, GPU's en zelfs CXL-apparaten met uitgebreid geheugen te accommoderen. Deze componenten vervullen allen een essentiële rol in de verwerking van veeleisende AI- en ML-workloads.

PCIe Gen5 SSD's spelen een sleutelrol bij het faciliteren van snelle lokale opslag. Tegelijkertijd stellen grote aantallen snelle netwerkinterfaces servers in staat om verbinding te maken met andere knooppunten, zoals opslag of gespecialiseerde servers, waardoor de reikwijdte en het bereik van gegevens worden vergroot. Bovendien dragen talrijke GPU's bij aan de verwerking van gespecialiseerde, doelgerichte taken of workloads. De synergie tussen deze elementen vormt de ruggengraat van een geoptimaliseerde infrastructuur voor het succesvol afhandelen van geavanceerde computationele uitdagingen.

NVMe-apparaten hebben het speelveld van servers en clusters ingrijpend veranderd. Met NVMe als fundering wordt een volledig nieuwe architectuur mogelijk, waarbij opslag in staat is om op schaal en met ongekende snelheid te opereren naast krachtige CPU's, GPU's en NIC's, met name wanneer gebruik wordt gemaakt van de EDSFF-formfactor.

Dankzij het ontwerp met één socket kunnen hoogwaardige CPU's, samen met geavanceerde netwerkkaarten en opslag, volledig worden benut. Hierdoor worden de hoogst mogelijke niveaus van parallellisme en clustermogelijkheden ontketend, wat van onschatbare waarde is voor HPC, AI en andere oplossingen van de volgende generatie. Deze synergie tussen verschillende componenten resulteert in een geoptimaliseerde infrastructuur die de prestaties naar nieuwe hoogten tilt in de evoluerende wereld van geavanceerde computationele toepassingen.

Michael McNerney, Vice President Marketing en Netwerkbeveiliging, Supermicro

Dit artikel is afkomstig van Channelweb.nl (https://www.channelweb.nl/artikel/7576722). © Jaarbeurs IT Media.

?

Nieuwsbrief

Wil je dagelijks op de hoogte gehouden worden van het laatste resellernieuws, trends en ontwikkelingen? Abonneer je dan op onze gratis nieuwsbrief.

Vul een geldig e-mailadres in

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.