NVIDIA ConnectX-6 InfiniBand Adapter MCX653105A-HDAT – 200 Gbit/s RDMA Hardware-Verschlüsselung

Produktdetails:

Markenname: Mellanox
Modellnummer: MCX653106A-HDAT-SP
Dokumentieren: connectx-6-infiniband.pdf

Zahlung und Versand AGB:

Min Bestellmenge: 1Stk
Preis: Negotiate
Verpackung Informationen: Äußere Box
Lieferzeit: Auf der Grundlage der Bestände
Zahlungsbedingungen: T/T
Versorgungsmaterial-Fähigkeit: Versorgung nach Projekt/Batch
Bestpreis Kontakt

Detailinformationen

Produktstatus: Aktie Anwendung: Server
Zustand: Neu und Original Typ: Verdrahtet
Maximale Geschwindigkeit: Bis zu 200 GB/s Ethernet -Anschluss: QSFP56
Modell: MCX653106A-HDAT Name: MCX653106A-HDAT-SP Mellanox intelligentes Hochgeschwindigkeitssafe Netzwerkkarte-200gbe

Produkt-Beschreibung

NVIDIA ConnectX-6 InfiniBand-Adapter
MCX653105A-HDAT ¢ Single-Port 200 Gbit/s
Ultra-niedrige Latenzzeit • RDMA, NVMe-oF-Offload • AES-XTS-Verschlüsselung auf Blockebene • PCIe Gen 4.0 x16

Die NVIDIA® ConnectX®-6 MCX653105A-HDAT-Smart Adapterkarte wurde für anspruchsvolle HPC-, KI- und hyperscale Cloud-Infrastrukturen entwickelt.Bandbreite von 200 Gbit/sAuf einem einzigen QSFP56-Anschluss mit In-Network Computing-Beschleunigung.und Sicherheit von der Ausbildung von tiefen neuronalen Netzwerken bis hin zur Echtzeitdatenanalyse und NVMe-oF-Speicherung.

Produktübersicht

Als Kernkomponente der NVIDIA Quantum InfiniBand-Plattform ermöglicht ConnectX-6 RDMA von Ende zu Ende, hardwarebasierten zuverlässigen Transport und erweiterte Stauskontrolle.Die in Absatz 1 genannten Anforderungen gelten nicht für die Berechnung der Leistungen.Das Single-Port-Modell bietet einen kostengünstigen und dennoch leistungsstarken Einstieg in HDR-InfiniBand- und 200GbE-Netzwerke von 200 Gb/s. Es integriert die Block-Level-XTS-AES-Verschlüsselung, NVMe over Fabrics (NVMe-oF) -Offloads,und GPUDirect RDMA-Beschleunigung, was es zur idealen Wahl für GPU-beschleunigte Cluster macht, Software-Defined Storage und Hochfrequenzhandelsumgebungen, in denen geringe Latenzzeit und Sicherheit von größter Bedeutung sind.

Wesentliche Merkmale
200 Gbit/s für einen einzigen PortMaximale Bandbreite, bis zu 215 Millionen Nachrichten pro Sekunde
Ultra-niedrige LatenzzeitSubmikrosekundene RDMA mit Sende/Empfangssemantik
In-Network-ComputingKollektive Operationen, Tag-Matching, Rendezvous-Protokoll
Sicherheit der HardwareXTS-AES 256/512-Bit-Verschlüsselung auf Blockebene, FIPS-konforme Optionen
NVMe-oF-AusladenZiel- und Initiator-Ablastung für einen effizienten NVMe-Speicherzugang
PCIe Gen 4.0 x16Host-Schnittstelle mit Rückwärtskompatibilität bis Gen 3.0/2.0
ASAP2 & Öffnen von vSwitchFlexible Pipeline für die Übereinstimmungswirkung, VXLAN/NVGRE/Geneva
GPUDirect RDMA und PeerDirectDirekte Kommunikation von GPU zu Netzwerk für KI-Ausbildung
Technologie: In-Network Computing und RDMA-Fabrik

NVIDIA ConnectX-6 erweitert Remote Direct Memory Access (RDMA) über die herkömmlichen Grenzen hinaus.und dynamisch vernetzter Verkehr (DCT), es sorgt für eine effiziente Skalierung über Tausende von Knoten.NetzwerkspeicherDiese Funktionalität ermöglicht einen registrierungsfreien RDMA-Speicherzugang, wodurch die Software-Overhead-Kosten reduziert werden.0, Daten bewegen sich direkt zwischen Speicher und Netzwerk, wodurch CPU-Zyklen für Anwendungslogik freigegeben werden.Hardwarebasierter zuverlässiger Transport und End-to-End-Flusssteuerung auf Paketebene gewährleisten die Datenintegrität auch unter extremer Belastung.

Mit Unterstützung vonRoCE (RDMA über konvergiertes Ethernet)ConnectX-6 bietet ein einheitliches Smart Fabric für InfiniBand- und Ethernet-Umgebungen.

Typische Einsätze
  • Hochleistungsrechner (HPC):Grössscale-Simulationen, Wettermodelle, Computerchemie, die eine deterministische geringe Latenzzeit erfordern.
  • KI und maschinelles Lernen:Beschleunigung des verteilten Trainings von tiefen neuronalen Netzwerken mit GPUDirect RDMA und 200Gb/s Durchsatz.
  • NVMe-oF-Speicherarrays:Erstellen Sie leistungsstarke NVMe/TCP- oder NVMe/RDMA-Speicherziele mit Hardware-Offloads, wodurch die CPU-Last um bis zu 30% reduziert wird.
  • Hyperscale Cloud und NFV:Effiziente Service-Chaining, OVS-Auslastung (ASAP2) und SR-IOV für bis zu 1K virtuelle Funktionen.
  • Finanzdienstleistungen und Handel:Marktdatenverteilung und algorithmische Handelsinfrastruktur mit sehr geringer Latenzzeit.
Vereinbarkeit

ConnectX-6 MCX653105A-HDAT ist mit einer Vielzahl von Servern, Switches und Betriebssystemen kompatibel.InfiniBand-Schalter bis zu 200 Gb/s (HDR)undEthernet-Schaltungen bis zu 200 Gb/sDer Adapter funktioniert auf x86, Power, Arm, GPU und FPGA-basierten Plattformen.

Kategorie Unterstützte Optionen / Normen
Betriebssysteme RHEL, SLES, Ubuntu, andere große Linux-Distributionen, Windows Server, FreeBSD, VMware vSphere
InfiniBand-Spezifikation IBTA 1.3-konform, 200/100/50/25/10Gb/s, 8 virtuelle Fahrspuren + VL15, Hardware-basierte Stausregelung
Ethernet-Standards 200/100/50/40/25/10/1GbE, IEEE 802.3bj, 802.3by, 802.3ba, PFC, ETS, DCB, 1588v2, Jumbo-Frame (9.6KB)
CPU-Auslastung und Virtualisierung SR-IOV (bis zu 1K VF), NPAR, DPDK, ASAP2 OVS-Ablastung, Tunnelverkapselung/Entkapselung (VXLAN, NVGRE, Genf)
Management und Boot NC-SI, MCTP über SMBus/PCIe, PLDM (DSP0248/DSP0267), UEFI, PXE, iSCSI Fernstart, InfiniBand Fernstart
Technische Spezifikation
Parameter Einzelheiten
Produktmodell Die in Absatz 1 genannten Anforderungen gelten nicht für die Berechnung der Leistungen.
Formfaktor PCIe Stand-up, mit niedrigem Profil, mit hoher Halterung, mit kurzer Halterung als Zubehör
Netzwerkanschlüsse 1x QSFP56 (ein-Anschluss)
Unterstützte Geschwindigkeiten 200/100/50/25/10 Gb/s
Unterstützte Geschwindigkeiten (Ethernet) 200/100/50/40/25/10/1 Gb/s
Host-Schnittstelle PCIe Gen 3.0/4.0 x16 (unterstützt auch x8, x4, x2, x1)
Maximale Bandbreite 200 Gbit/s
Nachrichtenrate Bis zu 215 Millionen Nachrichten pro Sekunde
Verzögerung Extrem niedrig (RDMA unter der Mikrosekunde)
Hardwareverschlüsselung XTS-AES 256/512-Bit-Block-Level-Verschlüsselung mit FIPS-Funktion
Speicherauslastungen NVMe-oF Ziel/Initiator, T10-DIF, SRP, iSER, NFS RDMA, SMB Direct
Virtualisierung SR-IOV (bis zu 1K VFs), VMware NetQueue, QoS pro VM
Fernsteuerung InfiniBand, Ethernet, iSCSI, UEFI, PXE
Abmessungen (ohne Klammer) 167.65mm x 68.90mm
RoHS und Compliance RoHS-konform, ODCC-kompatibel
Auswahlleitfaden ConnectX-6 Familie
Nummer des Bestellteils (OPN) Häfen / Geschwindigkeit Host-Schnittstelle Wesentliche Merkmale
Die in Absatz 1 genannten Anforderungen gelten nicht für die Berechnung der Leistungen. 1x QSFP56, bis zu 200 Gb/s PCIe 3.0/4.0 x16 Ein-Anschluss, Kryptounterstützung, Standardklammer
Die in Absatz 1 genannten Vorschriften gelten für die in Absatz 1 genannten Fahrzeuge. 2x QSFP56, bis zu 200 Gb/s PCIe 3.0/4.0 x16 Zweiport, Kryptounterstützung
Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge. 1x QSFP56, bis zu 100 Gb/s PCIe 3.0/4.0 x16 100 Gb/s Variante, keine Krypto
MCX653435A-HDAT (OCP 3.0) 1x QSFP56, 200 Gb/s PCIe x16 OCP 3.0 kleiner Formfaktor
Die in Absatz 1 Buchstabe b genannten Angaben sind zu beachten. 1x QSFP56, Socket Direct 2x PCIe 3.0 x16 Socket Direct mit dediziertem CPU-Zugriff

Anmerkung: Für Kaltplattenvarianten für das flüssiggekühlte Intel Server System D50TNP wenden Sie sich bitte an Starsurge für eine maßgeschneiderte Bestellung.

Warum Starsurge für ConnectX-6 wählen?
Original- und zertifizierter Lagerbestand
100% authentische NVIDIA ConnectX-6 Adapter mit vollständiger Batchverfolgbarkeit.
Globale Logistik und schnelle Lieferung
Lagerhäuser in Asien, Europa und Amerika, die mehr als 50 Länder bedienen.
Technische Vorverkäufe und Integration
Firmware-Konfiguration, RDMA-Tuning, NVMe-oF-Validierung, Fahrerunterstützung.
Wettbewerbsfähige OEM-Preise
Langfristige Partnerschaft mit NVIDIA Distributoren, Volumenrabatte verfügbar.
3-Jahres-Garantie + RMA-Support
Ein problemloser Ersatz und eine fortschrittliche Schiffsüberführung für kritische Einsätze.
Mehrsprachige und maßgeschneiderte Lösungen
Englisch-, Chinesisch- und Japanischunterstützung; kundenspezifische Integrations- und Kennzeichnungsdienste.
Service und Unterstützung

Die Starsurge Group in Hongkong bietet Unterstützung von Ende zu Ende: von Kompatibilitätsprüfungen, Firmware-Anpassung bis hin zu Anleitungen für die Bereitstellung vor Ort.Wir bieten spezielle technische Account-Manager für Rechenzentrum Upgrades und Proof-of-Concept (PoC) TestsAlle Adapter werden mit einer antistatischen Verpackung und einem optionalen Installationskit geliefert.
Zu den Unterstützungsangeboten gehören:24/5 Technikunterstützung Ticketing-System, erweiterter Ersatz für geschäftskritische Umgebungen, Treiber- und Software-Stack-Unterstützung (OFED, WinOF-2, DPDK) und Fernproblembehandlung.

Häufig gestellte Fragen
Was ist der Unterschied zwischen MCX653105A-HDAT und MCX653106A-HDAT?
MCX653105A-HDAT ist eine Single-Port-Version (1x QSFP56), ideal für Edge-Server oder kostengünstige Knoten, während MCX653106A-HDAT einen Dual-Port für Redundanz oder höhere Aggregation bietet.Beide unterstützen volle 200Gb/s pro Port und identische Feature-Sets einschließlich Krypto und Offloads.
Unterstützt dieser Adapter GPUDirect RDMA?
Ja, es unterstützt vollständig NVIDIA GPUDirect RDMA (PeerDirect), was eine direkte Kommunikation von GPU zu Netzwerk ermöglicht, die Speicherkopien eliminiert und die Latenzzeit für KI-Ausbildung und HPC-Anwendungen reduziert.
Ist die Karte kompatibel mit PCIe Gen 3-Slots?
Absolut. Es ist rückwärtskompatibel mit PCIe Gen 3.0, Gen 2.0, und Gen 1.1Für volle 200Gb/s wird ein PCIe Gen 4.0 x16 Slot empfohlen.
Welche Kabeltypen werden für den Betrieb mit 200 Gb/s unterstützt?
Passive Kupferkabel mit ESD-Schutz (bis zu 3 m), aktive optische Kabel (AOC) und QSFP56-Transceiver mit Multimode- oder Single-Mode-Faser.HDR-konforme DAC und Optik werden unterstützt.
Kann das für NVMe-oF-Zielentladung verwendet werden?
Ja, das ConnectX-6 verfügt über NVMe über Fabrics-Ablastungen für Ziel und Initiator, was den CPU-Overhead drastisch reduziert und die IOPS-Skalierbarkeit in Speicherumgebungen verbessert.
Vorsichtsmaßnahmen und Bestellbericht
  • Bestätigen Sie die mechanische Freiheit des Servers: Standardhöhe PCIe-Behälter enthalten; auch niedriges Profil als Zubehör.
  • Bei flüssiggekühlten Plattformen (Intel D50TNP) ist vor der Bestellung die Verfügbarkeit der Kaltplattenoption zu überprüfen.
  • Bitte bestätigen Sie die Kompatibilität der Treiber mit Ihrer Linux-Version. NVIDIA MLNX_OFED empfiehlt sich für optimale Leistung.
  • Nicht öffentlich angegeben: Genauer Stromverbrauch bei voller Last von 200 Gb/s
  • FIPS-Zertifizierung ist hardwarefähig, erfordert jedoch möglicherweise eine spezifische Firmwareversion.
  • Ein-Port-Adapter kann nicht für die Port-Redundanz verwendet werden; für Hochverfügbarkeitsdesigns sollten Sie den Dual-Port MCX653106A-HDAT in Betracht ziehen.
Über die Hong Kong Starsurge Group
NVIDIA ConnectX-6 InfiniBand Adapter MCX653105A-HDAT – 200 Gbit/s RDMA Hardware-Verschlüsselung 0

2008 gegründet,Hong Kong Starsurge Group Co., Limitedist ein technologieorientierter Anbieter von Netzwerkhardware, IT-Dienstleistungen und Systemintegrationslösungen.und Unternehmenssektoren, Starsurge liefert leistungsstarke Netzwerkausrüstung einschließlich Switches, NICs, drahtlosen Lösungen und maßgeschneiderter Software.Das Unternehmen kombiniert erfahrene Vertriebs- und technische Teams zur Unterstützung komplexer InfrastrukturprojekteKundenorientierter Ansatz, zuverlässige Qualität und schnelle globale Lieferung machen Starsurge zu einem zuverlässigen Partner für Rechenzentren der nächsten Generation.

Kontaktieren Sie das Starsurge Team
Wichtige Informationen NVIDIA ConnectX-6 MCX653105A-HDAT
Tatsache Wert
Höchstdurchsatz 200 Gbit/s (einziger Port)
Beschleunigungsmotoren auf dem Chip Tag-Matching, Rendezvous-Ausladen, kollektive Ausladen, Burst-Puffer-Ausladen
Maximale virtuelle Funktionen Bis zu 1024 VF pro Adapter
Verschlüsselungsstandard XTS-AES 256/512-Bit, aus der CPU entladene Hardware
Adaptive Routing-Unterstützung RDMA außer Betrieb mit adaptivem Routing
Netzwerkspeicher Registrierungsfreier RDMA-Speicherzugriff
Kompatibilitätsmatrix (vorvalidierte Plattformen)
Server / Plattform CPU-Architektur Geprüftes Betriebssystem / Umfeld
Dell PowerEdge R750/R760 Intel Xeon Skalierbares Gen 3/4 RHEL 8.6+, Ubuntu 22. Das ist ein sehr schwieriger Fall.04, VMware ESXi 7.0/8.0
HPE ProLiant DL380 Gen10/Gen11 Intel Xeon SLES 15 SP4, Windows Server 2022
Supermicro Ultra SuperServer AMD EPYC 7002/7003 Ubuntu 20.04/22 ist das.04, Rocky Linux 8
Lenovo ThinkSystem SR650/SR655 Intel / AMD EPYC RHEL 9, Windows Server 2019
NVIDIA DGX A100 / H100 x86_64 / NVIDIA Arm Ubuntu mit MLNX_OFED, NVIDIA HPC SDK
Checkliste des Käufers
  • ¢ Verfügbarkeit von PCIe-Slots: mechanisch x16 (elektrisch x16/x8/x4 unterstützt)
  •  erforderliche Portgeschwindigkeit: 200 Gbit/s oder weniger; Kabeltyp (QSFP56 passive DAC oder aktive Optik)
  • ¢ Betriebssystemtreiberversion: Überprüfen Sie die Kompatibilität von MLNX_OFED oder WinOF-2 mit Ihrem Kernel
  • Verschlüsselungsanforderung: Standardmodus AES-XTS oder FIPS (spezielle Firmware)
  • Kühlung und Halterung: Standardluftgekühlte oder Kaltplattenoption für die Flüssigkeitskühlung
  • Menge und Lieferzeit: Bestandsbestätigung mit dem Starsurge-Verkaufsteam
  • ¢ Beabsichtigte Anwendung: Einport ausreichend oder zwei-Port-Redundanz notwendig?
Verwandte Produkte (NVIDIA Ökosystem)
NVIDIA Quanten-InfiniBand-Schalter
QM8700 / QM9700-Serie, 40 Ports HDR 200Gb/s, vollständig verwaltet
ConnectX-6 Lx Smart NIC
Optimiert für Ethernet und RoCE, 200 Gb/s mit geringer Leistung
NVIDIA BlueField-3 DPU
InfiniBand/Ethernet mit programmierbarem Datenpfad und Isolation
NVIDIA LinkX Kabel und Transceiver
DAC-, AOC- und Aktivfaserkabel für 200G QSFP56
Verwandte Leitfäden und Ressourcen
  • ▸ NVIDIA ConnectX-6 Benutzerhandbuch (Firmware und Konfigurationsführer)
  • ▸ RDMA über konvergiertes Ethernet (RoCE)
  • ▸ NVMe-oF mit ConnectX-6: Performance Tuning Guide
  • ▸ GPUDirect RDMA für KI-Cluster
  • ▸ Einrichtung der Block-Ebene-Verschlüsselung für FIPS-Umgebungen

Möchten Sie mehr über dieses Produkt erfahren?
Ich bin daran interessiert NVIDIA ConnectX-6 InfiniBand Adapter MCX653105A-HDAT – 200 Gbit/s RDMA Hardware-Verschlüsselung Könnten Sie mir weitere Details wie Typ, Größe, Menge, Material usw. senden?
Vielen Dank!
Auf deine Antwort wartend.