Nvidia breidt ondersteuning voor ARM-CPU's uit met hun complete stapel AI- en HPC-software

Eerder vandaag kondigde Nvidia eindelijk ondersteuning aan voor processors met ARM-architectuur, samen met de volledige stapel AI- en HPC-software. Nvidia is goed bekend met ARM omdat ze de architectuur in hun Tegra-chips en ander systeem op een chip hebben verwerkt voor draagbare gaming, autonome voertuigen, robotica en embedded AI-computing.

Waarom nu?

ARM bestaat al een tijdje, maar het wordt pas een paar jaar gebruikt in HPC-systemen. Bijna alle HPC-systemen gebruiken chips van Intel omdat ze al lang bestaan, wat resulteert in geweldige legacy-software en bibliotheekondersteuning.

In de loop der jaren heeft ARM onvermoeibaar gewerkt om een ​​ecosysteem op te bouwen dat van hun architectuur een levensvatbaar alternatief voor x86-chips kan maken. Het Mont-Blanc-project was een groot initiatief in deze richting.

Deze initiatieven werpen eindelijk hun vruchten af ​​en de ARM-architectuur wordt steeds meer gebruikt in verschillende HPC-systemen over de hele wereld.

Nvidia's zakelijke belangen in datacenters

Nvidia domineert al een groot deel van de GPU-business voor consumenten en in de loop der jaren hebben ze een respectabele hardware- en softwarestack voor werkstations gecreëerd. Aan de softwarekant hebben ze veel oplossingen met betrekking tot AI en Deep Learning Workloads. Al deze workloads kunnen worden versneld door GPU's en dit is waar hun Tesla- en Volta-GPU's binnenkomen.

Dit heeft de financiën van het bedrijf geholpen, en volgens een artikel over Fobes geschreven door Karl Freund "In het eerste kwartaal van 2019 van NVIDIA overtrof het bedrijf opnieuw de verwachtingen en rapporteerde het een groei van 66% in de totale omzet, inclusief 71% groei in zijn gloeiend hete datacenteractiviteiten (tot $ 701 miljoen voor het kwartaal). Voor NVIDIA omvat het "Datacenter" -segment High-Performance Computing (HPC), datacenter-gehoste grafische afbeeldingen en AI-versnelling. "

Dit zijn ook belangrijke discussiepunten in de keynotes voor investeerders van Nvidia. Na de overname van Mellanox door Nvidia, waarover we het hadden hier, Deelde CEO Jensen Huang enig inzicht achter de beslissing en verklaarde: "De strategie verdubbelt het aantal datacentra en we combineren en verenigen twee leiders in high-performance computertechnologieën. We zijn gefocust op accelerated computing voor high-performance computing, en Mellanox is gefocust op netwerken en opslag voor high-performance computing, en we hebben de twee bedrijven onder één dak samengebracht. Onze visie is dat datacenters tegenwoordig de belangrijkste computers ter wereld zijn, en dat in de toekomst, naarmate de workloads blijven veranderen - wat echt wordt geactiveerd door kunstmatige intelligentie en data-analyse - dat alle soorten datacenters van de toekomst zullen worden gebouwd met hoge prestaties. computers. Hyperscale datacentra zijn echt gemaakt om services en lichtgewicht computing aan miljarden mensen te leveren. Maar de afgelopen jaren heeft de opkomst van kunstmatige intelligentie en machine learning en data-analyse de datacenters zo zwaar belast, en de reden is dat de datagrootte en de rekengrootte zo groot zijn dat het niet op één computer. Het moet dus over meerdere computers worden gedistribueerd en de hoogwaardige connectiviteit om deze computers met elkaar te laten samenwerken, wordt steeds belangrijker. Dit is de reden waarom Mellanox zo goed is gegroeid en waarom mensen het hebben over SmartNIC's en intelligente weefsels en softwaregedefinieerde netwerken. Al die gesprekken leiden naar dezelfde plek, en dat is een toekomst waarin het datacenter een gigantische rekenmachine is die coherent zal zijn - en veel mensen het nog steeds kunnen delen - maar weinig mensen in staat zal stellen om zeer grote applicaties uit te voeren ook op hen. Wij zijn van mening dat in de toekomst van datacentra de compute niet zal beginnen en eindigen bij de server, maar zich uitstrekt tot in het netwerk en dat het netwerk zelf onderdeel zal worden van de computing fabric. Op de lange termijn denk ik dat we de mogelijkheid hebben om computerarchitecturen op datacenterschaal te creëren.

ARM klaar voor succes

ARM-chips voeden de meeste mobiele apparaten over de hele wereld, dus de architectuur blijft door het ontwerp energiezuinig. Omdat de architectuur is gelicentieerd, kunnen met ARM meerdere siliciumfabrikanten worden overwogen.

Stroomverbruik blijft een groot probleem bij HPC's en het gebruik van ARM kan dit probleem in grote mate compenseren. Zelfs met software, met de Mont-Blanc-projecten, zijn er veel wetenschappelijke bibliotheken en tools ontwikkeld voor ARM, dit speelt een grote rol om het hele ecosysteem vooruit te helpen.

Het gebruik van ARM in HPC's en datacenters is nog steeds klein in vergelijking met x86-systemen, maar Nvidia ziet hier het potentieel. Hun aartsrivaal AMD is ook fel gaan concurreren op de HPC- en datacentermarkt met hun EPYC-serverprocessors en Radeon Instinct GPU-accelerators. Het is dus belangrijk voor Nvidia om ARM nu te adopteren en hun softwaresuite (CUDA-X HPC, ect) aan te bieden. In tegenstelling tot sommige fabrikanten maakt Nvidia geen CPU's, dus ze missen de CPU-GPU-samenhang die AMD en Intel kunnen bieden.

Achteraf gezien kan Nvidia een partnerschap met ARM versterken, zoals NextPlatform terecht stelt "Nvidia en Arm zouden een partnerschap kunnen aangaan om NVLink IP-blokken beschikbaar te maken voor degenen die Neoverse-licenties kopen, waardoor een nauwere koppeling met GPU's mogelijk is, inclusief geheugenatomica en geheugencoherentie tussen de CPU-GPU-rekencomplexen.

Deze stap zal zeker de zaak van ARM helpen als een levensvatbaar architectuuralternatief voor x86 HPC's. We kunnen ergens in de toekomst een vergelijkbare stap van AMD verwachten, omdat ze hun Radeon Instinct GPU's agressief blijven pushen.

Facebook Twitter Google Plus Pinterest