NVIDIA ConnectX-7 VPI Adapter – Dual-Port NDR 400Gb/s, PCIe 5.0, GPUDirect, RoCE – MCX75310AAS-NEAT

Produktdetails:

Markenname: Mellanox
Modellnummer: MCX75310AAS-NEAT (900-9x766-003n-SQ0)
Dokumentieren: Connectx-7 infiniband.pdf

Zahlung und Versand AGB:

Min Bestellmenge: 1Stk
Preis: Negotiate
Verpackung Informationen: Äußere Box
Lieferzeit: Auf der Grundlage der Bestände
Zahlungsbedingungen: T/T
Versorgungsmaterial-Fähigkeit: Versorgung nach Projekt/Batch
Bestpreis Kontakt

Detailinformationen

Modell Nr.: MCX75310AAS-NEAT (900-9x766-003n-SQ0) Häfen: Single-Port
Technologie: Infiniband Schnittstellentyp: OSFP56
Spezifikation: 16,7 cm x 6,9 cm Herkunft: Indien / Israel / China
Übertragungsrate: 400gbe Host -Schnittstelle: Gen3 x16
Hervorheben:

NVIDIA ConnectX-7 Netzwerkadapter

,

Dual-Port NDR 400Gb/s PCIe-Karte

,

Mellanox RoCE GPUDirect Adapter

Produkt-Beschreibung

NVIDIA ConnectX‑7 HDR 200Gb/s InfiniBand-Adapter
MCX755106AS‑HEAT | Dual-Port PCIe 5.0 Smart NIC

Beschleunigen Sie KI-, wissenschaftliche Computer- und Enterprise-Cloud-Workloads mit der NVIDIA ConnectX-7-Familie. Der MCX755106AS-HEAT liefert bis zu 200 Gbit/s InfiniBand (HDR) und 200 GbE Ethernet-Flexibilität, In-Network-Computing-Engines, Hardware-Sicherheit und extrem niedrige Latenzzeiten — alles über PCIe 5.0.

HDR 200 Gbit/s InfiniBand PCIe 5.0 x16 GPUDirect® RDMA & Storage Hardware RoCE / IPsec / TLS / MACsec
Produktübersicht

Der NVIDIA ConnectX-7 VPI-Adapter MCX755106AS-HEAT ist eine Dual-Port 200-Gbit/s-Smart-Netzwerkkarte, die für High-Performance-Computing (HPC)-Cluster, KI-Fabriken und Enterprise-Rechenzentren entwickelt wurde. Durch die Kombination von InfiniBand- und Ethernet-Protokollunterstützung ermöglicht er Remote Direct Memory Access (RDMA), GPUDirect Storage und fortschrittliche In-Network-Computing-Engines wie SHARPv3 und Rendezvous-Offload. Mit der PCIe 5.0-Host-Schnittstelle und hardwarebasierten Sicherheitsbeschleunigern entlastet dieser Adapter die CPU, reduziert die Gesamtbetriebskosten und liefert eine konsistente Leistung mit geringer Latenz.

Ideal für Organisationen, die ihre IT-Infrastruktur vom Edge bis zum Core modernisieren, bietet die ConnectX-7-Familie softwaredefinierte, hardwarebeschleunigte Netzwerk-, Speicher- und Sicherheitsfunktionen — für skalierbare und sichere Lösungen mit minimalem Overhead.

Hauptmerkmale & Fähigkeiten
 HDR 200 Gbit/s InfiniBand Konform mit InfiniBand Trade Association Spec 1.5, unterstützt RDMA, 16 Mio. IO-Kanäle, MTU bis zu 4 KB.
 Multi-Protokoll & Geschwindigkeiten InfiniBand: HDR 200 Gbit/s, EDR 100 Gbit/s; Ethernet: 200 GbE, 100 GbE, 50 GbE, 25 GbE, 10 GbE.
 Inline-Sicherheitsbeschleuniger Hardware IPsec, TLS, MACsec (AES-GCM 128/256-Bit) ohne CPU-Belastung; sicherer Bootvorgang und Hardware-Root-of-Trust.
GPUDirect® RDMA & Storage Direkte GPU-zu-NIC-Kommunikation, GPUDirect Storage, NVMe-oF-Offloads, T10-DIF und Blockverschlüsselung.
In-Network-Computing SHARPv3 Collective Offloads, Rendezvous-Protokoll-Offload, On-Board-Speicher für Burst-Pufferung, erweiterte atomare Operationen.
 Erweiterte PTP & Sync IEEE 1588v2 Klasse C, 12 ns Genauigkeit, SyncE, PPS in/out — ideal für zeitkritische Infrastrukturen.
PCIe 5.0 & Multi-Host Bis zu x32 Lanes, PCIe-Bifurkationsunterstützung, NVIDIA Multi-Host™ (bis zu 4 Hosts), PASID, ATS, ACS, SR-IOV.
ASAP² & SDN-Beschleunigung Beschleunigte Switch- und Paketverarbeitung, Overlay-Offload (VXLAN, GENEVE, NVGRE), programmierbarer Parser, Verbindungsverfolgung, hierarchische QoS.
Technologie: Hardwarebeschleunigung trifft auf intelligentes Networking

ConnectX-7 integriert die NVIDIA ASAP² (Accelerated Switch and Packet Processing)-Technologie, um softwaredefiniertes Networking mit Leitungsgeschwindigkeit zu liefern, ohne CPU-Kerne zu verbrauchen. Inline-Hardware-Engines verarbeiten die Verschlüsselung/Entschlüsselung für IPsec, TLS und MACsec und schützen Daten während der Übertragung vom Edge bis zum Core. Für Speicher ermöglichen integrierte NVMe-oF-Offloads und GPUDirect Storage den direkten Datentransfer zwischen Speicher und GPU-Speicher, wodurch Latenzzeiten reduziert und der Durchsatz maximiert wird. Der Adapter unterstützt auch erweiterte Zeitsynchronisation (PTP mit 12 ns Genauigkeit) und On-Demand-Paging (ODP) für registrierungsfreie RDMA, was ihn ideal für disaggregierte und speicherzentrierte Architekturen macht.

Typische Einsatzszenarien
  • KI- & Large Language Model (LLM)-Cluster: Hochgeschwindigkeits-Interconnect für GPU-Server, Nutzung von GPUDirect RDMA und SHARP Collective Offloads.
  • High-Performance Computing (HPC): 200-Gbit/s-HDR-InfiniBand-Fabric für MPI, OpenSHMEM und wissenschaftliche Simulationen.
  • Hyperscale Cloud & SDN-Rechenzentren: RoCEv2, Overlay-Beschleunigung und SR-IOV für Multi-Tenant-Virtualisierung.
  • Enterprise Security Gateway: Inline-MACsec/IPsec-Verschlüsselung für Edge-to-Core-Kommunikation mit Hardware-Offload.
  • Speichersysteme: NVMe-oF/TCP-Offload, verteilte Speicherplattformen, die extrem niedrige Latenzzeiten und hohe IOPS erfordern.
Kompatibilität & Ökosystem
✅ Host-Schnittstelle: PCIe Gen5.0 (bis zu x32 Lanes), abwärtskompatibel mit PCIe 4.0/3.0.
✅ Betriebssysteme: In-Box-Treiber für Linux (RHEL, Ubuntu), Windows Server, VMware ESXi (SR-IOV), Kubernetes (CNI-Plugins).
✅ Protokolle: InfiniBand (HDR/EDR), Ethernet (200 GbE bis 10 GbE), RoCE, RoCEv2, iSCSI, NVMe-oF, SRP, iSER, NFS über RDMA, SMB Direct.
✅ HPC-Middleware: NVIDIA HPC-X, UCX, UCC, NCCL, OpenMPI, MVAPICH, MPICH, OpenSHMEM.
✅ Verwaltung: NC-SI, MCTP über PCIe/SMBus, PLDM, Redfish, SPDM, sicheres Firmware-Update.
Technische Spezifikationen
Spezifikation Details
Produktmodell MCX755106AS-HEAT (NVIDIA ConnectX-7 VPI)
Maximale Geschwindigkeit InfiniBand HDR 200 Gbit/s; Ethernet bis zu 200 GbE
Portkonfiguration Dual-Port (unterstützt 1/2-Port-Varianten, dieses Modell Dual-Port QSFP56)
Host-Schnittstelle PCIe 5.0 x16 (bis zu x32 Lanes mit Bifurkation / Multi-Host)
Formfaktor PCIe HHHL (Half Height Half Length) – Standard-Bracket
Protokollunterstützung InfiniBand (HDR/EDR) & Ethernet (200 GbE/100 GbE/50 GbE/25 GbE/10 GbE)
RDMA RoCE, RoCEv2, Hardware-zuverlässiger Transport, DCT, XRC, On-Demand-Paging (ODP)
Sicherheits-Offload Inline IPsec/TLS/MACsec (AES-GCM 128/256-Bit), Secure Boot, Flash-Verschlüsselung, Geräte-Attestierung
Speicher-Offload NVMe-oF (TCP/Fabrics), NVMe/TCP, T10-DIF, Block-Level XTS-AES 256/512-Bit
Timing & Sync IEEE 1588v2 (PTP), 12 ns Genauigkeit, SyncE (G.8262.1), konfigurierbares PPS, zeitgesteuerte Planung
Virtualisierung SR-IOV, VirtIO-Beschleunigung, Overlay-Offload (VXLAN, GENEVE, NVGRE)
Erweiterte Funktionen GPUDirect RDMA, GPUDirect Storage, SHARP-Offload, Adaptive Routing, Burst Buffer Offload
Verwaltung & Boot UEFI, PXE, iSCSI-Boot, InfiniBand-Remote-Boot, PLDM, Redfish, SPDM, MCTP

*Spezifikationen basieren auf NVIDIA-öffentlicher Dokumentation. Überprüfen Sie die genaue Konfiguration für Ihr System vor der Bestellung.

Auswahlhilfe: Welcher ConnectX-7-Adapter passt zu Ihrem Workload?
Modell Ports / Geschwindigkeit Host-Schnittstelle Zielgruppe
MCX755106AS-HEAT 2-Port HDR 200 Gbit/s InfiniBand / 200 GbE PCIe 5.0 x16 KI-Cluster, HPC, Enterprise-Rechenzentren
MCX75310AAS-NEAT 2-Port NDR 400 Gbit/s InfiniBand PCIe 5.0 x16 High-End-KI, groß angelegte HPC
OCP 3.0 Varianten SFF / TSF mit HDR/NDR PCIe Gen5 Open Compute Project Server
Vorteile der Wahl von ConnectX-7 MCX755106AS-HEAT
  • Extrem niedrige Latenz & hoher Durchsatz: Hardware-RDMA und In-Network-Computing minimieren die Tail-Latenz von Anwendungen.
  • Vereinheitlichte Fabric: Ein Adapter unterstützt sowohl InfiniBand als auch Ethernet, was Lagerbestand und Bereitstellung vereinfacht.
  • Zukunftssicheres PCIe 5.0: 32 GT/s pro Lane, doppelte Bandbreite von PCIe 4.0, Beseitigung von I/O-Engpässen.
  • Reduzierte Gesamtbetriebskosten: Entlastet die CPU von Netzwerk-, Speicher- und Sicherheitsaufgaben, was eine effizientere Serverauslastung ermöglicht.
  • KI-optimiert: Native GPUDirect und SHARPv3 Collective Operations beschleunigen das Modelltraining und die Inferenz.
Service & Support — Globale Reichweite von Starsurge

Hong Kong Starsurge Group Co., Limited bietet End-to-End-Support, einschließlich Pre-Sales-Beratung, kundenspezifischer Firmware-Konfiguration und weltweiten Versand. Alle ConnectX-7-Adapter werden mit einer 1-Jahres-Garantie (verlängerbar) und technischer Unterstützung durch erfahrene Netzwerk-Ingenieure geliefert. Wir bieten mehrsprachigen Support, RMA-Services und schnelle Ersatzlogistik, um Ausfallzeiten zu minimieren.

Häufig gestellte Fragen
F: Ist der MCX755106AS-HEAT mit InfiniBand-Switches und Ethernet-Switches kompatibel?
Ja, er unterstützt Dual-Protokoll VPI (Virtual Protocol Interconnect). Sie können im InfiniBand-Modus für maximale RDMA-Leistung oder im Ethernet-Modus (RoCE) für konvergierte Umgebungen betrieben werden.
F: Benötigt dieser Adapter zusätzliche Kühlung für PCIe 5.0?
Ein Standard-Server-Luftstrom ist ausreichend, aber bei hochdichten Bereitstellungen sollte eine ausreichende Front-to-Back-Kühlung gewährleistet sein. Beachten Sie den Thermal Design Guide von NVIDIA.
F: Kann ich diese Karte mit PCIe 4.0-Steckplätzen verwenden?
Ja, sie ist abwärtskompatibel mit PCIe 4.0/3.0, aber die maximale Bandbreite wird auf die Fähigkeiten des Steckplatzes beschränkt sein.
F: Unterstützt er Windows Server 2022?
Ja, zertifizierte Treiber sind für Windows Server 2019/2022 sowie für die wichtigsten Linux-Distributionen verfügbar.
F: Was ist der typische Stromverbrauch?
Unter Volllast ca. 20-28 W, abhängig von Portgeschwindigkeit und Konfiguration. Bitte bestätigen Sie dies im offiziellen Datenblatt.
Vorsichtsmaßnahmen & Konformität
  • Stellen Sie sicher, dass der PCIe-Steckplatz ausreichend Strom liefert (75 W über den Steckplatz, kein Hilfsstrom für den Normalbetrieb erforderlich).
  • Prüfen Sie den physischen Platz: Der HHHL-Formfaktor passt in die meisten 1U/2U-Server; OCP-Varianten erfordern einen entsprechenden Mezzanine-Steckplatz.
  • Für RoCE-Bereitstellungen konfigurieren Sie DCB (Priority Flow Control) und ECN auf den Switches für verlustfreies Ethernet.
  • Aktualisieren Sie die Firmware immer auf die neueste stabile Version, um Sicherheits- und Leistungsverbesserungen zu nutzen.
Über Hong Kong Starsurge Group

Die 2008 gegründete Hong Kong Starsurge Group Co., Limited ist ein technologieorientierter Anbieter von Netzwerkhardware, IT-Dienstleistungen und Systemintegrationslösungen. Wir bedienen Kunden weltweit mit Produkten wie Netzwerk-Switches, NICs, drahtlosen Zugangspunkten, Controllern, Kabeln und Netzwerkausrüstung. Unser erfahrenes Vertriebs- und Technikteam unterstützt Branchen wie Regierung, Gesundheitswesen, Fertigung, Bildung, Finanzen und Unternehmen. Mit einem kundenorientierten Ansatz konzentriert sich Starsurge auf zuverlässige Qualität, reaktionsschnellen Service und maßgeschneiderte Lösungen — und hilft Kunden beim Aufbau einer effizienten, skalierbaren und zuverlässigen Netzwerkinfrastruktur.

Wir bieten IoT-Lösungen, Netzwerkmanagement-Systeme, kundenspezifische Softwareentwicklung, mehrsprachigen Support und globale Lieferung. Wählen Sie Starsurge als Ihren vertrauenswürdigen Partner für NVIDIA-Netzwerklösungen.


Möchten Sie mehr über dieses Produkt erfahren?
Ich bin daran interessiert NVIDIA ConnectX-7 VPI Adapter – Dual-Port NDR 400Gb/s, PCIe 5.0, GPUDirect, RoCE – MCX75310AAS-NEAT Könnten Sie mir weitere Details wie Typ, Größe, Menge, Material usw. senden?
Vielen Dank!
Auf deine Antwort wartend.