NVIDIA MCX555A-ECAT 100 Gbit/s Single-Port QSFP28 InfiniBand-Adapter PCIe 3.0 x16 ConnectX-5-Netzwerkkarte

Produktdetails:

Markenname: Mellanox
Modellnummer: MCX555A-ECAT
Dokumentieren: CONNECTX-5 infiniband.pdf

Zahlung und Versand AGB:

Min Bestellmenge: 1Stk
Preis: Negotiate
Verpackung Informationen: Äußere Box
Lieferzeit: Auf der Grundlage der Bestände
Zahlungsbedingungen: T/T
Versorgungsmaterial-Fähigkeit: Versorgung nach Projekt/Batch
Bestpreis Kontakt

Detailinformationen

Produktstatus: Aktie Anwendung: Server
Zustand: Neu und Original Typ: Verdrahtet
Maximale Geschwindigkeit: EDR und 100GBE Ethernet -Anschluss: QSFP28
Hervorheben:

NVIDIA ConnectX-5 InfiniBand-Adapter

,

100 Gbit/s QSFP28-Netzwerkkarte

,

PCIe 3.0 x16 Mellanox-Karte

Produkt-Beschreibung

NVIDIA ConnectX-5 MCX555A-ECAT InfiniBand-Adapterkarte
Single-Port QSFP28 | 100 Gbit/s InfiniBand & Ethernet | PCIe 3.0 x16 | RDMA-fähig

Hochleistungsfähige, latenzarme 100-Gbit/s-Netzwerkkarte für HPC-, KI- und Cloud-Rechenzentren. Mit fortschrittlichen Offloads, einschließlich NVMe over Fabrics, GPUDirect RDMA und Tag-Matching für MPI-Workloads – für branchenführenden Durchsatz und CPU-Effizienz.

Produktübersicht

Die NVIDIA ConnectX-5 MCX555A-ECAT ist eine Single-Port 100-Gbit/s-InfiniBand-Adapterkarte im Low-Profile-PCIe-Formfaktor. Basierend auf der bewährten ConnectX-5-Architektur liefert sie bis zu 100 Gbit/s Durchsatz mit Latenzen unter einer Mikrosekunde und hoher Nachrichtenrate. Die Karte unterstützt sowohl InfiniBand (bis EDR) als auch 100GbE und bietet vielseitige Konnektivität für High-Performance-Computing, Speicher und virtualisierte Umgebungen.

Mit einem integrierten PCIe-Switch und fortschrittlichen RDMA-Funktionen entlastet die MCX555A-ECAT kritische Kommunikationsaufgaben von der CPU – für höhere Anwendungsleistung, geringeren Stromverbrauch und reduzierte Gesamtbetriebskosten. Sie ist vollständig kompatibel mit PCIe 3.0 x16-Steckplätzen und unterstützt eine breite Palette von Betriebssystemen und Beschleunigungs-Frameworks.

Hauptmerkmale
  • Bis zu 100 Gbit/s Konnektivität pro Port (InfiniBand EDR / 100GbE)
  • Einzelner QSFP28-Anschluss für optische oder Kupferkabel
  • PCIe 3.0 x16 Host-Schnittstelle (automatische Aushandlung auf x8, x4, x2, x1)
  • RDMA, Send/Receive-Semantik mit hardwarebasierter zuverlässiger Übertragung
  • Tag-Matching und Rendezvous-Offloads für MPI und SHMEM
  • NVMe over Fabrics (NVMe-oF) Target-Offloads für effizienten Speicher
  • GPUDirect RDMA (PeerDirect) Beschleunigung für GPU-Kommunikation
  • Hardwarebasierte Staukontrolle und adaptive Routing-Unterstützung
  • SR-IOV-Virtualisierung: bis zu 512 virtuelle Funktionen
  • RoHS-konformer Low-Profile-Formfaktor (hohes Bracket enthalten)
Fortschrittliche Technologie & Offloads

Die ConnectX-5-Architektur integriert eine Reihe von Hardware-Beschleunigungs-Engines, die die CPU-Intervention reduzieren und die Skalierbarkeit von Anwendungen verbessern:

  • MPI Tag Matching & Rendezvous Offload: Offloads für Nachrichtenabgleich und Rendezvous-Protokollverarbeitung, was die MPI-Leistung für HPC-Cluster dramatisch verbessert.
  • Out-of-Order RDMA mit adaptivem Routing: Ermöglicht die effiziente Nutzung mehrerer Netzwerkpfade bei gleichzeitiger Beibehaltung geordneter Abschlusssemantik, wodurch die Auslastung des Fabrics maximiert wird.
  • NVMe-oF Target-Offloads: Ermöglicht NVMe-Speichersystemen, Fernzugriff mit nahezu null CPU-Overhead bereitzustellen, ideal für disaggregierte Speicherarchitekturen.
  • Dynamically Connected Transport (DCT): Bietet extreme Skalierbarkeit für große Rechen- und Speichersysteme durch Eliminierung von Verbindungsaufbau-Overhead.
  • ASAP2 Accelerated Switching & Packet Processing: Hardware-Offload für Open vSwitch (OVS) und Overlay-Netzwerk-Tunneling (VXLAN, NVGRE, GENEVE).
  • On-Demand Paging (ODP): Unterstützt virtuelles Speicher-Paging für RDMA-Operationen, was die Anwendungsentwicklung vereinfacht.
Typische Einsatzszenarien
  • High-Performance Computing (HPC): Ideal für Supercomputing-Cluster, MPI-basierte Simulationen und wissenschaftliche Forschungs-Workloads, die niedrige Latenz und hohe Nachrichtenraten erfordern.
  • KI- und Deep-Learning-Training: In Kombination mit GPUDirect RDMA ermöglicht es schnelle GPU-zu-GPU-Kommunikation über Knoten hinweg und beschleunigt Trainingszeiten.
  • NVMe-oF-Speichersysteme: Einsatz als Speicherziele oder Initiatoren in NVMe over Fabrics-Umgebungen für hochdurchsatzstarken, latenzarmen Block-Speicherzugriff.
  • Cloud- und virtualisierte Rechenzentren: SR-IOV und Virtualisierungs-Offloads unterstützen Multi-Tenant-Umgebungen mit garantierter QoS und sicherer Isolation.
  • High-Frequency Trading (HFT): Extrem niedrige Latenz und Hardware-Zeitstempel (IEEE 1588v2) erfüllen die Anforderungen von Finanzdienstleistungsanwendungen.
Kompatibilität & Interoperabilität

Die MCX555A-ECAT ist für breite Kompatibilität mit NVIDIA InfiniBand-Switches (z. B. Quantum, Spectrum) und 100GbE-Switches von Drittanbietern ausgelegt. Sie unterstützt sowohl passive Kupfer-DACs als auch aktive optische Kabel über QSFP28-Ports.

Betriebssysteme & Software-Stacks:

  • RHEL / CentOS, Ubuntu, Windows Server, FreeBSD, VMware ESXi
  • OpenFabrics Enterprise Distribution (OFED) / WinOF-2
  • NVIDIA HPC-X, OpenMPI, MVAPICH2, Intel MPI, Platform MPI
  • Data Plane Development Kit (DPDK) für Kernel-Bypass
Technische Spezifikationen
Parameter Spezifikation
Modell MCX555A-ECAT
Formfaktor PCIe Low-Profile (14,2 cm x 6,9 cm ohne Bracket), hohes Bracket vorinstalliert, kurzes Bracket enthalten
Portgeschwindigkeit & Typ 1x QSFP28, bis zu 100 Gbit/s InfiniBand (EDR) und 100GbE
Host-Schnittstelle PCI Express 3.0 x16 (kompatibel mit x8, x4, x2, x1)
InfiniBand-Unterstützung IBTA 1.3-konform, 100 Gbit/s EDR, FDR, QDR, DDR, SDR; 8 virtuelle Lanes + VL15; 16 Millionen I/O-Kanäle
Ethernet-Unterstützung 100GbE, 50GbE, 40GbE, 25GbE, 10GbE, 1GbE; IEEE 802.3cd, 802.3bj, 802.3by, 802.3ba, 802.3ae
RDMA-Fähigkeiten RDMA over Converged Ethernet (RoCE), hardwarebasierte zuverlässige Übertragung, Out-of-Order RDMA, atomare Operationen
Storage-Offloads NVMe over Fabrics Target-Offload, iSER, SRP, NFS RDMA, SMB Direct, T10 DIF-Signaturübergabe
Virtualisierung SR-IOV (bis zu 512 virtuelle Funktionen), VMware NetQueue, NPAR, PCIe Access Control Services (ACS)
CPU-Offloads TCP/UDP/IP zustandslose Offloads, LSO/LRO, Checksum-Offload, RSS/TSS, VLAN/MPLS-Tag-Einfügung/Entfernung
Overlay-Netzwerke Hardware-Offload für VXLAN, NVGRE, GENEVE Kapselung/Entkapselung
Management NC-SI über MCTP, PLDM für Überwachung/Steuerung und Firmware-Update, I2C, SPI, JTAG
Remote Boot Remote Boot über InfiniBand, Ethernet, iSCSI; UEFI, PXE-Unterstützung
Stromverbrauch Nicht öffentlich spezifiziert; typischer Bereich unter 20 W – bitte für Ihr System bestätigen
Betriebstemperatur 0 °C bis 55 °C (typische Umgebung)
Konformität RoHS, REACH, FCC, CE, VCCI, ICES, RCM

Hinweis: Spezifikationen stammen aus der NVIDIA ConnectX-5 Produktdokumentation. Die neuesten Details und Firmware-Unterstützung finden Sie in den offiziellen NVIDIA Release Notes.

Auswahlhilfe – ConnectX-5 Familie
Bestellnummer Ports / Geschwindigkeit Host-Schnittstelle Formfaktor Hauptmerkmale
MCX555A-ECAT 1x QSFP28, 100 Gbit/s PCIe 3.0 x16 Low-Profile PCIe Standard Single-Port, EDR InfiniBand / 100GbE
MCX556A-ECAT 2x QSFP28, 100 Gbit/s PCIe 3.0 x16 Low-Profile PCIe Dual-Port, EDR/100GbE
MCX556A-EDAT 2x QSFP28, 100 Gbit/s PCIe 4.0 x16 Low-Profile PCIe ConnectX-5 Ex, verbesserte PCIe Gen4
MCX556M-ECAT-S25 2x QSFP28, 100 Gbit/s 2x PCIe 3.0 x8 Socket Direct Dual-Socket-Serververbindung über Kabelbaum
MCX545B-ECAN 1x QSFP28, 100 Gbit/s PCIe 3.0 x16 OCP 2.0 Typ 1 Open Compute Project Formfaktor

Für OCP- oder Multi-Host-Varianten kontaktieren Sie bitte den Vertrieb. Alle Karten unterstützen Abwärtskompatibilität zu niedrigeren Geschwindigkeiten.

Warum ConnectX-5 MCX555A-ECAT wählen
  • Überragende Anwendungsleistung: Hardware-Offloads für MPI, NVMe-oF und Overlays geben CPU-Kerne für Geschäftslogik frei.
  • Skalierbares RDMA-Fabric: DCT, XRC und Out-of-Order RDMA bieten lineare Skalierbarkeit für Tausende von Knoten.
  • Bereit für GPU-Beschleunigung: GPUDirect RDMA ermöglicht direkten Speicherzugriff zwischen GPUs und Netzwerkkarten und eliminiert CPU-Engpässe in KI-Clustern.
  • Flexible Bereitstellung: Der einzelne QSFP28-Port vereinfacht die Verkabelung und ist ideal für 100-Gbit/s-Leaf-Spine-Architekturen.
  • Investitionsschutz: Die Unterstützung von InfiniBand und Ethernet ermöglicht einen nahtlosen Übergang zwischen Protokollen, wenn sich die Anforderungen ändern.
Service & Support

Hong Kong Starsurge Group bietet umfassenden Lifecycle-Support für NVIDIA ConnectX-5-Adapter, einschließlich Pre-Sales-Konfigurationsunterstützung, Anleitung zur Firmware-Aktualisierung und Garantieservice. Unser technisches Team kann Ihnen helfen bei:

  • Kompatibilitätsprüfung mit Ihrer Server- und Switch-Infrastruktur
  • Leistungsoptimierung für HPC- oder Speicher-Workloads
  • Benutzerdefinierte Bracket-Optionen und Anforderungen an Bulk-Verpackungen
  • RMA-Abwicklung und Advanced Replacement Services

Kontaktieren Sie unsere Vertriebsingenieure für Volumenpreise und Lieferzeiten.

Häufig gestellte Fragen
F: Was ist der Unterschied zwischen MCX555A-ECAT und MCX556A-ECAT?
A: MCX555A-ECAT hat einen einzelnen QSFP28-Port, während MCX556A-ECAT zwei Ports hat. Beide unterstützen 100 Gbit/s pro Port und PCIe 3.0 x16. Wählen Sie Single-Port für einfachere Verkabelung oder Dual-Port für höhere Dichte.
F: Kann diese Karte in einem PCIe 3.0 x8-Steckplatz verwendet werden?
A: Ja, die Karte verhandelt automatisch auf x8, x4, x2 oder x1 Lane-Breiten, obwohl der maximale Durchsatz durch die verfügbare Bandbreite begrenzt sein kann.
F: Unterstützt sie RoCE (RDMA over Converged Ethernet)?
A: Ja, ConnectX-5 unterstützt RoCE für Ethernet-Fabrics und bietet latenzarme RDMA-Dienste in Standard-Ethernet-Netzwerken.
F: Welche Kabel sind kompatibel?
A: Die Karte funktioniert mit passiven QSFP28-Kupfer-DACs (bis zu 5 m) und aktiven optischen Kabeln (AOC) für längere Distanzen sowie mit optischen Transceivern für Glasfaserverbindungen.
F: Wird diese Karte in VMware ESXi unterstützt?
A: Ja, VMware ESXi wird mit nativen Treibern und SR-IOV-Funktionen unterstützt. Bitte überprüfen Sie die VMware-Kompatibilitätsmatrix für spezifische Versionen.
Handhabungs- & Installationshinweise

Elektrostatische Entladung (ESD): Verwenden Sie immer ESD-sichere Praktiken bei der Handhabung des Adapters. Lagern Sie ihn bis zur Installation in antistatischer Verpackung. Kühlungsanforderungen: Sorgen Sie für ausreichenden Luftstrom im Servergehäuse, um die Betriebstemperatur im angegebenen Bereich zu halten. Firmware-Updates: Verwenden Sie offizielle NVIDIA Firmware-Tools (MFT) und überprüfen Sie die Kompatibilität mit Ihrem Betriebssystem und Ihrer Treiberversion vor dem Update. Kabelbiegung: Befolgen Sie die Richtlinien für den Biegeradius von QSFP28-Kabeln, um Signalverschlechterungen zu vermeiden.

Dies ist ein Produkt der Klasse A. In einer Wohnumgebung kann es Funkstörungen verursachen. Stellen Sie eine ordnungsgemäße Abschirmung und Erdung gemäß den örtlichen Vorschriften sicher.

Über Hong Kong Starsurge Group Co., Limited
NVIDIA MCX555A-ECAT 100 Gbit/s Single-Port QSFP28 InfiniBand-Adapter PCIe 3.0 x16 ConnectX-5-Netzwerkkarte 0

Gegründet im Jahr 2008, Hong Kong Starsurge Group Co., Limited ist ein technologieorientierter Anbieter von Netzwerkhardware, IT-Dienstleistungen und Systemintegrationslösungen. Starsurge bedient Kunden weltweit mit Produkten wie Netzwerk-Switches, NICs, drahtlosen Zugangspunkten, Controllern und Hochgeschwindigkeitskabeln und kombiniert tiefes technisches Fachwissen mit einem kundenorientierten Ansatz. Das Unternehmen unterstützt Branchen wie Regierung, Gesundheitswesen, Fertigung, Bildung, Finanzen und Unternehmen und bietet IoT-Lösungen, Netzwerkmanagement-Systeme, kundenspezifische Softwareentwicklung und mehrsprachige globale Lieferung. Mit Fokus auf zuverlässige Qualität und reaktionsschnellen Service hilft Starsurge Kunden beim Aufbau effizienter, skalierbarer und zuverlässiger Netzwerkinfrastrukturen.

Wichtige Fakten – NVIDIA MCX555A-ECAT
100 Gbit/s
Portgeschwindigkeit (InfiniBand & Ethernet)
PCIe 3.0 x16
Host-Schnittstellenbandbreite
512 VFs
Maximale SR-IOV-virtuelle Funktionen
NVMe-oF
Hardware-offloadfähiges Speicherziel
Kompatibilitätsmatrix
Komponente / System Kompatibilitätsstatus Hinweise
NVIDIA Quantum InfiniBand Switches Zertifiziert EDR, HDR-Kompatibilität bei Verwendung geeigneter Firmware
NVIDIA Spectrum Ethernet Switches Zertifiziert Unterstützte Modi: 100GbE, 50GbE, 25GbE
100GbE-Switches von Drittanbietern Kompatibel Erfordert Konformität mit IEEE-Standards; getestet mit wichtigen Anbietern
GPU-Server (NVIDIA DGX, HGX) Zertifiziert mit GPUDirect RDMA-Beschleunigung für Multi-GPU-Kommunikation
Speicherarrays mit NVMe-oF Unterstützt Target-Offload ermöglicht effizienten NVMe-Fabric-Zugriff
Käufer-Checkliste – 100 Gbit/s InfiniBand-Adapter
  • ☑ Bestätigen Sie, dass der Server über einen freien PCIe 3.0 x16 (oder x8) Steckplatz mit ausreichend Platz verfügt.
  • ☑ Bestimmen Sie die Portanzahl: Single-Port (MCX555A-ECAT) vs. Dual-Port (MCX556A-ECAT).
  • ☑ Wählen Sie den Kabeltyp: passive Kupfer-DACs für kurze Distanzen (≤5m) oder optische Kabel für längere Strecken.
  • ☑ Überprüfen Sie die Unterstützung für Betriebssystem und Treiber (OFED, Windows, VMware).
  • ☑ Stellen Sie für GPU-Cluster die GPUDirect RDMA-Kompatibilität mit Ihrem GPU-Modell und Ihrer Treiberversion sicher.
  • ☑ Prüfen Sie, ob für Ihr Servergehäuse ein hohes oder kurzes Bracket erforderlich ist.
Verwandte Produkte
  • NVIDIA MCX556A-ECAT – Dual-Port 100 Gbit/s ConnectX-5 Adapter
  • NVIDIA MCX556A-EDAT – ConnectX-5 Ex mit PCIe 4.0 Unterstützung
  • NVIDIA Quantum-2 QM9700 40-Port 800 Gbit/s InfiniBand Switch
  • Mellanox QSFP28 passive DAC-Kabel (1m, 2m, 3m)
  • NVIDIA Spectrum-4 SN5600 100GbE/400GbE Ethernet Switches
Verwandte Anleitungen & Ressourcen
  • Benutzerhandbuch für NVIDIA ConnectX-5 InfiniBand-Adapterkarten
  • Anleitung zur Bereitstellung von RDMA over Converged Ethernet (RoCE)
  • Best Practices für GPUDirect RDMA in KI-Clustern
  • NVMe over Fabrics mit ConnectX-5 – Konfigurationshandbuch
  • OFED Installations- und Tuning-Handbuch


Möchten Sie mehr über dieses Produkt erfahren?
Ich bin daran interessiert NVIDIA MCX555A-ECAT 100 Gbit/s Single-Port QSFP28 InfiniBand-Adapter PCIe 3.0 x16 ConnectX-5-Netzwerkkarte Könnten Sie mir weitere Details wie Typ, Größe, Menge, Material usw. senden?
Vielen Dank!
Auf deine Antwort wartend.