NVIDIA ConnectX-6 InfiniBand Adapter MCX653105A-HDAT – 200 Gbit/s RDMA Hardware-Verschlüsselung
Produktdetails:
| Markenname: | Mellanox |
| Modellnummer: | MCX653106A-HDAT-SP |
| Dokumentieren: | connectx-6-infiniband.pdf |
Zahlung und Versand AGB:
| Min Bestellmenge: | 1Stk |
|---|---|
| Preis: | Negotiate |
| Verpackung Informationen: | Äußere Box |
| Lieferzeit: | Auf der Grundlage der Bestände |
| Zahlungsbedingungen: | T/T |
| Versorgungsmaterial-Fähigkeit: | Versorgung nach Projekt/Batch |
|
Detailinformationen |
|||
| Produktstatus: | Aktie | Anwendung: | Server |
|---|---|---|---|
| Zustand: | Neu und Original | Typ: | Verdrahtet |
| Maximale Geschwindigkeit: | Bis zu 200 GB/s | Ethernet -Anschluss: | QSFP56 |
| Modell: | MCX653106A-HDAT | Name: | MCX653106A-HDAT-SP Mellanox intelligentes Hochgeschwindigkeitssafe Netzwerkkarte-200gbe |
Produkt-Beschreibung
MCX653105A-HDAT ¢ Single-Port 200 Gbit/s
Die NVIDIA® ConnectX®-6 MCX653105A-HDAT-Smart Adapterkarte wurde für anspruchsvolle HPC-, KI- und hyperscale Cloud-Infrastrukturen entwickelt.Bandbreite von 200 Gbit/sAuf einem einzigen QSFP56-Anschluss mit In-Network Computing-Beschleunigung.und Sicherheit von der Ausbildung von tiefen neuronalen Netzwerken bis hin zur Echtzeitdatenanalyse und NVMe-oF-Speicherung.
Als Kernkomponente der NVIDIA Quantum InfiniBand-Plattform ermöglicht ConnectX-6 RDMA von Ende zu Ende, hardwarebasierten zuverlässigen Transport und erweiterte Stauskontrolle.Die in Absatz 1 genannten Anforderungen gelten nicht für die Berechnung der Leistungen.Das Single-Port-Modell bietet einen kostengünstigen und dennoch leistungsstarken Einstieg in HDR-InfiniBand- und 200GbE-Netzwerke von 200 Gb/s. Es integriert die Block-Level-XTS-AES-Verschlüsselung, NVMe over Fabrics (NVMe-oF) -Offloads,und GPUDirect RDMA-Beschleunigung, was es zur idealen Wahl für GPU-beschleunigte Cluster macht, Software-Defined Storage und Hochfrequenzhandelsumgebungen, in denen geringe Latenzzeit und Sicherheit von größter Bedeutung sind.
NVIDIA ConnectX-6 erweitert Remote Direct Memory Access (RDMA) über die herkömmlichen Grenzen hinaus.und dynamisch vernetzter Verkehr (DCT), es sorgt für eine effiziente Skalierung über Tausende von Knoten.NetzwerkspeicherDiese Funktionalität ermöglicht einen registrierungsfreien RDMA-Speicherzugang, wodurch die Software-Overhead-Kosten reduziert werden.0, Daten bewegen sich direkt zwischen Speicher und Netzwerk, wodurch CPU-Zyklen für Anwendungslogik freigegeben werden.Hardwarebasierter zuverlässiger Transport und End-to-End-Flusssteuerung auf Paketebene gewährleisten die Datenintegrität auch unter extremer Belastung.
Mit Unterstützung vonRoCE (RDMA über konvergiertes Ethernet)ConnectX-6 bietet ein einheitliches Smart Fabric für InfiniBand- und Ethernet-Umgebungen.
- Hochleistungsrechner (HPC):Grössscale-Simulationen, Wettermodelle, Computerchemie, die eine deterministische geringe Latenzzeit erfordern.
- KI und maschinelles Lernen:Beschleunigung des verteilten Trainings von tiefen neuronalen Netzwerken mit GPUDirect RDMA und 200Gb/s Durchsatz.
- NVMe-oF-Speicherarrays:Erstellen Sie leistungsstarke NVMe/TCP- oder NVMe/RDMA-Speicherziele mit Hardware-Offloads, wodurch die CPU-Last um bis zu 30% reduziert wird.
- Hyperscale Cloud und NFV:Effiziente Service-Chaining, OVS-Auslastung (ASAP2) und SR-IOV für bis zu 1K virtuelle Funktionen.
- Finanzdienstleistungen und Handel:Marktdatenverteilung und algorithmische Handelsinfrastruktur mit sehr geringer Latenzzeit.
ConnectX-6 MCX653105A-HDAT ist mit einer Vielzahl von Servern, Switches und Betriebssystemen kompatibel.InfiniBand-Schalter bis zu 200 Gb/s (HDR)undEthernet-Schaltungen bis zu 200 Gb/sDer Adapter funktioniert auf x86, Power, Arm, GPU und FPGA-basierten Plattformen.
| Kategorie | Unterstützte Optionen / Normen |
|---|---|
| Betriebssysteme | RHEL, SLES, Ubuntu, andere große Linux-Distributionen, Windows Server, FreeBSD, VMware vSphere |
| InfiniBand-Spezifikation | IBTA 1.3-konform, 200/100/50/25/10Gb/s, 8 virtuelle Fahrspuren + VL15, Hardware-basierte Stausregelung |
| Ethernet-Standards | 200/100/50/40/25/10/1GbE, IEEE 802.3bj, 802.3by, 802.3ba, PFC, ETS, DCB, 1588v2, Jumbo-Frame (9.6KB) |
| CPU-Auslastung und Virtualisierung | SR-IOV (bis zu 1K VF), NPAR, DPDK, ASAP2 OVS-Ablastung, Tunnelverkapselung/Entkapselung (VXLAN, NVGRE, Genf) |
| Management und Boot | NC-SI, MCTP über SMBus/PCIe, PLDM (DSP0248/DSP0267), UEFI, PXE, iSCSI Fernstart, InfiniBand Fernstart |
| Parameter | Einzelheiten |
|---|---|
| Produktmodell | Die in Absatz 1 genannten Anforderungen gelten nicht für die Berechnung der Leistungen. |
| Formfaktor | PCIe Stand-up, mit niedrigem Profil, mit hoher Halterung, mit kurzer Halterung als Zubehör |
| Netzwerkanschlüsse | 1x QSFP56 (ein-Anschluss) |
| Unterstützte Geschwindigkeiten | 200/100/50/25/10 Gb/s |
| Unterstützte Geschwindigkeiten (Ethernet) | 200/100/50/40/25/10/1 Gb/s |
| Host-Schnittstelle | PCIe Gen 3.0/4.0 x16 (unterstützt auch x8, x4, x2, x1) |
| Maximale Bandbreite | 200 Gbit/s |
| Nachrichtenrate | Bis zu 215 Millionen Nachrichten pro Sekunde |
| Verzögerung | Extrem niedrig (RDMA unter der Mikrosekunde) |
| Hardwareverschlüsselung | XTS-AES 256/512-Bit-Block-Level-Verschlüsselung mit FIPS-Funktion |
| Speicherauslastungen | NVMe-oF Ziel/Initiator, T10-DIF, SRP, iSER, NFS RDMA, SMB Direct |
| Virtualisierung | SR-IOV (bis zu 1K VFs), VMware NetQueue, QoS pro VM |
| Fernsteuerung | InfiniBand, Ethernet, iSCSI, UEFI, PXE |
| Abmessungen (ohne Klammer) | 167.65mm x 68.90mm |
| RoHS und Compliance | RoHS-konform, ODCC-kompatibel |
| Nummer des Bestellteils (OPN) | Häfen / Geschwindigkeit | Host-Schnittstelle | Wesentliche Merkmale |
|---|---|---|---|
| Die in Absatz 1 genannten Anforderungen gelten nicht für die Berechnung der Leistungen. | 1x QSFP56, bis zu 200 Gb/s | PCIe 3.0/4.0 x16 | Ein-Anschluss, Kryptounterstützung, Standardklammer |
| Die in Absatz 1 genannten Vorschriften gelten für die in Absatz 1 genannten Fahrzeuge. | 2x QSFP56, bis zu 200 Gb/s | PCIe 3.0/4.0 x16 | Zweiport, Kryptounterstützung |
| Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge. | 1x QSFP56, bis zu 100 Gb/s | PCIe 3.0/4.0 x16 | 100 Gb/s Variante, keine Krypto |
| MCX653435A-HDAT (OCP 3.0) | 1x QSFP56, 200 Gb/s | PCIe x16 | OCP 3.0 kleiner Formfaktor |
| Die in Absatz 1 Buchstabe b genannten Angaben sind zu beachten. | 1x QSFP56, Socket Direct | 2x PCIe 3.0 x16 | Socket Direct mit dediziertem CPU-Zugriff |
Anmerkung: Für Kaltplattenvarianten für das flüssiggekühlte Intel Server System D50TNP wenden Sie sich bitte an Starsurge für eine maßgeschneiderte Bestellung.
100% authentische NVIDIA ConnectX-6 Adapter mit vollständiger Batchverfolgbarkeit.
Lagerhäuser in Asien, Europa und Amerika, die mehr als 50 Länder bedienen.
Firmware-Konfiguration, RDMA-Tuning, NVMe-oF-Validierung, Fahrerunterstützung.
Langfristige Partnerschaft mit NVIDIA Distributoren, Volumenrabatte verfügbar.
Ein problemloser Ersatz und eine fortschrittliche Schiffsüberführung für kritische Einsätze.
Englisch-, Chinesisch- und Japanischunterstützung; kundenspezifische Integrations- und Kennzeichnungsdienste.
Die Starsurge Group in Hongkong bietet Unterstützung von Ende zu Ende: von Kompatibilitätsprüfungen, Firmware-Anpassung bis hin zu Anleitungen für die Bereitstellung vor Ort.Wir bieten spezielle technische Account-Manager für Rechenzentrum Upgrades und Proof-of-Concept (PoC) TestsAlle Adapter werden mit einer antistatischen Verpackung und einem optionalen Installationskit geliefert.
Zu den Unterstützungsangeboten gehören:24/5 Technikunterstützung Ticketing-System, erweiterter Ersatz für geschäftskritische Umgebungen, Treiber- und Software-Stack-Unterstützung (OFED, WinOF-2, DPDK) und Fernproblembehandlung.
- Bestätigen Sie die mechanische Freiheit des Servers: Standardhöhe PCIe-Behälter enthalten; auch niedriges Profil als Zubehör.
- Bei flüssiggekühlten Plattformen (Intel D50TNP) ist vor der Bestellung die Verfügbarkeit der Kaltplattenoption zu überprüfen.
- Bitte bestätigen Sie die Kompatibilität der Treiber mit Ihrer Linux-Version. NVIDIA MLNX_OFED empfiehlt sich für optimale Leistung.
- Nicht öffentlich angegeben: Genauer Stromverbrauch bei voller Last von 200 Gb/s
- FIPS-Zertifizierung ist hardwarefähig, erfordert jedoch möglicherweise eine spezifische Firmwareversion.
- Ein-Port-Adapter kann nicht für die Port-Redundanz verwendet werden; für Hochverfügbarkeitsdesigns sollten Sie den Dual-Port MCX653106A-HDAT in Betracht ziehen.
2008 gegründet,Hong Kong Starsurge Group Co., Limitedist ein technologieorientierter Anbieter von Netzwerkhardware, IT-Dienstleistungen und Systemintegrationslösungen.und Unternehmenssektoren, Starsurge liefert leistungsstarke Netzwerkausrüstung einschließlich Switches, NICs, drahtlosen Lösungen und maßgeschneiderter Software.Das Unternehmen kombiniert erfahrene Vertriebs- und technische Teams zur Unterstützung komplexer InfrastrukturprojekteKundenorientierter Ansatz, zuverlässige Qualität und schnelle globale Lieferung machen Starsurge zu einem zuverlässigen Partner für Rechenzentren der nächsten Generation.
Kontaktieren Sie das Starsurge Team| Tatsache | Wert |
|---|---|
| Höchstdurchsatz | 200 Gbit/s (einziger Port) |
| Beschleunigungsmotoren auf dem Chip | Tag-Matching, Rendezvous-Ausladen, kollektive Ausladen, Burst-Puffer-Ausladen |
| Maximale virtuelle Funktionen | Bis zu 1024 VF pro Adapter |
| Verschlüsselungsstandard | XTS-AES 256/512-Bit, aus der CPU entladene Hardware |
| Adaptive Routing-Unterstützung | RDMA außer Betrieb mit adaptivem Routing |
| Netzwerkspeicher | Registrierungsfreier RDMA-Speicherzugriff |
| Server / Plattform | CPU-Architektur | Geprüftes Betriebssystem / Umfeld |
|---|---|---|
| Dell PowerEdge R750/R760 | Intel Xeon Skalierbares Gen 3/4 | RHEL 8.6+, Ubuntu 22. Das ist ein sehr schwieriger Fall.04, VMware ESXi 7.0/8.0 |
| HPE ProLiant DL380 Gen10/Gen11 | Intel Xeon | SLES 15 SP4, Windows Server 2022 |
| Supermicro Ultra SuperServer | AMD EPYC 7002/7003 | Ubuntu 20.04/22 ist das.04, Rocky Linux 8 |
| Lenovo ThinkSystem SR650/SR655 | Intel / AMD EPYC | RHEL 9, Windows Server 2019 |
| NVIDIA DGX A100 / H100 | x86_64 / NVIDIA Arm | Ubuntu mit MLNX_OFED, NVIDIA HPC SDK |
- ¢ Verfügbarkeit von PCIe-Slots: mechanisch x16 (elektrisch x16/x8/x4 unterstützt)
- erforderliche Portgeschwindigkeit: 200 Gbit/s oder weniger; Kabeltyp (QSFP56 passive DAC oder aktive Optik)
- ¢ Betriebssystemtreiberversion: Überprüfen Sie die Kompatibilität von MLNX_OFED oder WinOF-2 mit Ihrem Kernel
- Verschlüsselungsanforderung: Standardmodus AES-XTS oder FIPS (spezielle Firmware)
- Kühlung und Halterung: Standardluftgekühlte oder Kaltplattenoption für die Flüssigkeitskühlung
- Menge und Lieferzeit: Bestandsbestätigung mit dem Starsurge-Verkaufsteam
- ¢ Beabsichtigte Anwendung: Einport ausreichend oder zwei-Port-Redundanz notwendig?
QM8700 / QM9700-Serie, 40 Ports HDR 200Gb/s, vollständig verwaltet
Optimiert für Ethernet und RoCE, 200 Gb/s mit geringer Leistung
InfiniBand/Ethernet mit programmierbarem Datenpfad und Isolation
DAC-, AOC- und Aktivfaserkabel für 200G QSFP56
- ▸ NVIDIA ConnectX-6 Benutzerhandbuch (Firmware und Konfigurationsführer)
- ▸ RDMA über konvergiertes Ethernet (RoCE)
- ▸ NVMe-oF mit ConnectX-6: Performance Tuning Guide
- ▸ GPUDirect RDMA für KI-Cluster
- ▸ Einrichtung der Block-Ebene-Verschlüsselung für FIPS-Umgebungen







