social.sokoll.com

Search

Items tagged with: Mellanox

#NVIDIA acquires #Mellanox: yesterday‘s rumour became reality today.

Why did they do that? #Datacenter operators accelerate computing power with NVIDIA #GPU‘s for increasing #AI or #DL/#ML workloads. Mellanox empowers networks to reach ever new speeds and nearly eliminated latency. Last is most important for cloud computing setups and the increasing number of service providers such as Zalando, booking or Amazon.

The racy thing about the current acquisition is NVIDIA‘s engagement in future #technology like autonomous driving and industrial networks generally. Processing huge amounts of data in a maximum distributed environment is a big challenge – and in the case of selfdriving cars it becomes life critical literally. I understand, that a company like NVIDIA wants to get as much control as possible over as much components as possible. Or why would have been Intel so keen on the same subject?

With picking the sweetest cherry from the tree NVIDIA gets an enormous head start in the race.
 
NVidia kauft Mellanox für 6.9 Milliarden
https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion

NVIDIA ist ein Hersteller von Grafikkarten und Parallel Compute Beschleunigern, die zufälligerweise auch GPU genannt werden, aber keine Bildausgänge mehr haben. Mellanox ist ein Hersteller von Netzwerkkarten und Switches, der ursprünglich aus dem High Performance Compute Umfeld kommt. Der Artikel sabbert denn auch über HPC, Machine Learning und AI, aber der Bedarf ist tatsächlich umfassender.

Ein modernes Rechenzentrum versucht Maschinen zu modularisieren, damit man aus dem Modulen die passende Maschinengröße automatisch synthetisieren kann, wenn sie gebraucht wird. Idealerweise dann auch "beweglich", damit die Leistung auch dort zur Verfügung steht, wo sie gebraucht wird. Auf dem Hardware Level kann man das gut zwischen CPU und Speicher auf der einen Seite (Compute) und "Festplatten" (Storage) auf der anderen Seite machen, wobei Festplatten heutzutage oft Flash auf dem SATA Bus ("SSD") oder Flash auf dem PCI Bus ("NVME") sind, oder gar Phase Change Speicher auf dem PCI Bus ("Optane") oder Phase Change Speicher auf dem Memory Bus ("Optane", "Apache Pass").

Damit das funktioniert, braucht man schnelle (kleine Latenz, große Bandbreite, keine Oversubscription) Kommunikation zwischen jeder CPU und jeder "Festplatte" innerhalb desselben Rechenzentrums. Dann kann man logische Laufwerke auf Storage bauen, der in jedem Rack unter dem Top of Rack Switch vorhanden ist, und ihn von jeder Maschine im Rechenzentrum ansprechen. Das Protokoll ist iSCSI (single queue, ~200-400µs commit latenz) oder NVME over Fabric (TCP) (multiple queue, 100-200µs möglich) oder NVMEoF (UDP) mit RDMA (unter 100µs). Während iSCSI und NVME/TCP mit so ziemlich jeder Netzwerkkarte machbar sind, braucht RDMA mit NVME/UDP schon die guten Mellanoxe.

Storage Disaggregation bekommt man mit nicht kranken Anwendungen aber auch mit iSCSI oder NVME/TCP hin.

Alles in allem eine hochinteressante Entwicklung...

#wasmitcomputern #nvme #mellanox #nvidia
 
Later posts Earlier posts