logistic ready

Fachportal für Intralogistik

Die Linux Foundation hat sich zum Ziel gesetzt, die Effizienz von Rechenzentren zu verbessern

Die Linux Foundation hat sich zum Ziel gesetzt, die Effizienz von Rechenzentren zu verbessern

Das Open Programmable Infrastructure-Projekt der Organisation zielt darauf ab, das Auslagern von Aufgaben von CPUs auf DPUs und IPUs zu erleichtern.

Geschrieben von Michael Cooney

Organisationen, die den Einsatz von UDP und Infrastructure Processing Units (UIPs) untersuchen, erhielten diese Woche einen Schub. Denn die Linux Foundation hat ein Projekt angekündigt, um es zu einem festen Bestandteil zukünftiger Cloud-Infrastrukturen und Rechenzentren zu machen.

DPUs, IPUs und smartNICs sind programmierbare Netzwerkgeräte, die entwickelt wurden, um CPUs freizugeben und die Leistung von Cloud-, Computing-, Netzwerk-, Speicher- und Sicherheitssoftware zu verbessern.

Der neue Plan mit dem Namen Open Programmable Infrastructure (OPI)-Projekt sieht vor, dass eine Community Standards für den Aufbau von DPU/IPU-basierten Architekturen entwickelt. OPI wird Technologien entwickeln, die darauf ausgelegt sind, die Vernetzung, Speicherung und Sicherheit von APIs innerhalb von Anwendungen zu vereinfachen, um sie in der Cloud und in Rechenzentren durch DevOps, SecOps und NetOps portierbarer und effizienter zu machen, so die Linux Foundation.

Zu den Gründungsmitgliedern von OPI gehören Dell Technologies, F5, Intel, Keysight Technologies, Marvell, NVIDIA und Red Hat. OPI schließt sich anderen wie AWS und AMD an, wenn es smartNICs und DPUs für den Einsatz in Edge-, Co-Location- oder Service-Provider-Netzwerken baut.

sagte Mike Dolan, Senior Vice President für Unternehmensprojekte.

Zu den Zielen des Börsengangs gehören:

  • Definieren Sie anbieterneutrale Frameworks und Architekturen für DPU- und IPU-basierte Software-Stacks, die auf jede Hardwarelösung anwendbar sind.
  • Möglichkeit, ein starkes Ökosystem von Open-Source-Anwendungen zu schaffen.
  • Integration mit bestehenden Open-Source-Projekten, die auf dieselbe Vision ausgerichtet sind, wie z. B. der Linux-Kernel.
  • Erstellen Sie neue APIs für die Interaktion mit und zwischen Elementen des DPU- und IPU-Ökosystems, einschließlich Geräten, gehosteten Anwendungen, dem zentralen Knoten und der Remote-Softwarebereitstellung und -koordination.
Siehe auch  Diese beiden fermentierten Getränke verbessern die Regelmäßigkeit des Stuhlgangs

Laut Dolan werden DPUs und IPUs aufgrund ihrer Flexibilität bei der Verwaltung von Ressourcen in den Netzwerkdomänen zunehmend zur Unterstützung von Hochgeschwindigkeitsnetzwerken und Paketverarbeitungsfunktionen für Anwendungen wie 5G, AI/ML, Web3, Verschlüsselung und mehr verwendet , Computing, Sicherheit und Speicherung. Anstatt dass Server die Einheit von Cloud-, Edge- und Rechenzentrumsinfrastruktur darstellen, können Betreiber detaillierte Netzwerke aufbauen, Ressourcenpools berechnen und speichern, die von DPUs, IPUs, GPUs und CPUs unterstützt werden, um die Anforderungen zu erfüllen. und Messanforderungen.

Als Teil der IPO-Ankündigung hat NVIDIA seine DOCA-Netzwerk-APIs in das Projekt eingebracht. Laut NVIDIA umfasst DOCA Treiber, Bibliotheken, Dienste, Dokumentation, Anwendungsbeispiele und Verwaltungstools, um die Anwendungsentwicklung und -leistung zu beschleunigen und zu vereinfachen. DOCA bietet Flexibilität und Portabilität für BlueField-Anwendungen, die mit beschleunigten Treibern oder Low-Level-Bibliotheken wie DPDK, SPDK, Open vSwitch oder Open SSL geschrieben wurden. BlueField ist das NVIDIA Data Center Service Acceleration Pack.