In moderne bedrijven ondergaat momenteel een volledige metamorfose, aangedreven door wat we de "AI-revolutie" zouden kunnen noemen. Het benutten van geavanceerde AI- of ML-gebaseerde toepassingen vormt de kern van deze transformatie, waarbij organisaties niet alleen concurrentievoordelen behalen, maar ook cruciale inzichten verwerven.
De pioniers in deze evolutie omarmen baanbrekende workloads, waaronder grote taalmodellen (LLM's) zoals ChatGPT. Daarnaast maken ze gebruik van ML-modellen die zijn opgebouwd op immense sets trainingsgegevens. Deze omvatten complexe 3D-modellen, animatie en virtuele realiteit, evenals simulaties en andere toepassingen die zowel data- als rekenintensief zijn. Deze gevarieerde toepassingen illustreren de breedte en diepte van de impact van AI en ML op de hedendaagse zakelijke landschap.
Voor een krachtige AI- of ML-oplossing moet een complete, uitgebreide set hardware samenwerken. Achter de flitsende rack-hardware die het GPU-gestuurde brein van een AI-cluster huisvest, zijn opslagsystemen met hoge doorvoer en lage latency nodig om het cluster productief te houden. Deze ondersteunen de I/O-kanalen die enorme hoeveelheden data voeden om modellen te trainen en complexe simulaties en analyses uit te voeren die nodig zijn om AI, ML en vergelijkbare workloads te ondersteunen. Een van de grootste uitdagingen voor bedrijven die willen profiteren van de groei van AI is het vinden van een opslagoplossing die geen knelpunten oplevert voor hun krachtige CPU's, GPU's of databaseclusters. De CPU's en GPU's moeten immers bezig worden gehouden om de TCO van het datacenter te verlagen.
Knelpunten in opslag vermijden
Wat er gebeurt in gedistribueerde en parallelle modi is dat voor de gedistribueerde bestandssystemen data binnenkomen van meerdere bronnen waar die gegevens op schaal verwerkt moeten worden via verschillende protocollen en voor verschillende toepassingen. In een typisch opslagsysteem worden metadata al snel een knelpunt. Je kunt namelijk maar zoveel gegevens door het systeem pompen als de metadata ondersteunen. Naarmate de hoeveelheid gegevens toeneemt, moet het vermogen om metadata te verwerken evenredig meegroeien.
Gedistribueerde opslag van WEKA is ontworpen om zo'n proportionele schaling te bieden. Dat verklaart waarom, ondanks het toevoegen van meer datacapaciteit aan een systeem of cluster, de I/O prestaties lineair blijven schalen vanaf acht (minimum aantal knooppunten voor een WEKA cluster) tot honderden opslagknooppunten. Het doet dit door knelpunten te elimineren en ondersteuning te bieden voor zelfs de zwaarste en meest veeleisende AI/ML (en andere vergelijkbare) werklasten.
Maar er komt meer kijken bij het optimaliseren van servers en clusters dan het leveren van schaalbare opslag met hoge prestaties en lage latentie. Bij het ontwerpen van een compleet systeem kan de focus niet uitsluitend liggen op een enkele functie of kenmerk. De hele architectuur moet samenwerken om de beoogde workloads te ondersteunen. Het ontwerpen van een systeem voor AI-applicaties betekent dus het creëren van een runtime-omgeving die vanaf de basis is opgebouwd om dataintensieve applicaties zowel snel als naar tevredenheid af te handelen. Wat de server doet met de data tijdens het verwerken van een AI workload is net zo essentieel als het dataverkeer in en uit een gegeven node.
NVMe te hulp
Een ander cruciaal aspect betreft het aantal PCIe 5.0 lanes. Deze technologie biedt servers de mogelijkheid om uitgebreidere configuraties van SSD's, NIC's, GPU's en zelfs CXL-apparaten met uitgebreid geheugen te accommoderen. Deze componenten vervullen allen een essentiële rol in de verwerking van veeleisende AI- en ML-workloads.
PCIe Gen5 SSD's spelen een sleutelrol bij het faciliteren van snelle lokale opslag. Tegelijkertijd stellen grote aantallen snelle netwerkinterfaces servers in staat om verbinding te maken met andere knooppunten, zoals opslag of gespecialiseerde servers, waardoor de reikwijdte en het bereik van gegevens worden vergroot. Bovendien dragen talrijke GPU's bij aan de verwerking van gespecialiseerde, doelgerichte taken of workloads. De synergie tussen deze elementen vormt de ruggengraat van een geoptimaliseerde infrastructuur voor het succesvol afhandelen van geavanceerde computationele uitdagingen.
NVMe-apparaten hebben het speelveld van servers en clusters ingrijpend veranderd. Met NVMe als fundering wordt een volledig nieuwe architectuur mogelijk, waarbij opslag in staat is om op schaal en met ongekende snelheid te opereren naast krachtige CPU's, GPU's en NIC's, met name wanneer gebruik wordt gemaakt van de EDSFF-formfactor.
Dankzij het ontwerp met één socket kunnen hoogwaardige CPU's, samen met geavanceerde netwerkkaarten en opslag, volledig worden benut. Hierdoor worden de hoogst mogelijke niveaus van parallellisme en clustermogelijkheden ontketend, wat van onschatbare waarde is voor HPC, AI en andere oplossingen van de volgende generatie. Deze synergie tussen verschillende componenten resulteert in een geoptimaliseerde infrastructuur die de prestaties naar nieuwe hoogten tilt in de evoluerende wereld van geavanceerde computationele toepassingen.
Michael McNerney, Vice President Marketing en Netwerkbeveiliging, Supermicro