NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT 200 Gbit/s Smart NIC

Produktdetails:

Markenname: Mellanox
Modellnummer: MCX653106A-ECAT
Dokumentieren: connectx-6-infiniband.pdf

Zahlung und Versand AGB:

Min Bestellmenge: 1Stk
Preis: Negotiate
Verpackung Informationen: Äußere Box
Lieferzeit: Auf der Grundlage der Bestände
Zahlungsbedingungen: T/T
Versorgungsmaterial-Fähigkeit: Versorgung nach Projekt/Batch
Bestpreis Kontakt

Detailinformationen

Produktstatus: Aktie Anwendung: Server
Schnittstellentyp:: Infiniband Häfen: Dual
Maximale Geschwindigkeit: 100gbe Typ: Verdrahtet
Zustand: Neu und Original Garantiezeit: 1 Jahr
Modell: MCX653106A-ECAT Name: Mellanox-Netzwerkkarte Original MCX653106A-ECAT verbinden X-6 100Gb/s Dual-Port QSFP56 Ethernet-Adap
Stichwort: Mellanox Network Card
Hervorheben:

NVIDIA ConnectX-6 Infiniband-Adapter

,

200 Gbit/s Smart NIC

,

Mellanox-Netzwerkkarte mit Garantie

Produkt-Beschreibung

NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT

200 Gb/s Dual-Port Smart Adapter mit Netzwerkrechner

Die NVIDIA ConnectX-6 MCX653106A-ECAT liefert bis zu200 Gbit/sBandbreite, Sub-Mikrosekunden-Latenz und Hardware-Auslastungen für HPC, KI und hyperkonvergierte Speicherung.0, maximiert der Dual-Port QSFP56 InfiniBand-Adapter die Effizienz und Skalierbarkeit des Rechenzentrums.

Unterstützung von InfiniBand und Ethernet RDMA / GPUDirect NVMe-oF-Auslastung
Produktübersicht

DieDie in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge.ist Teil der NVIDIA ConnectX-6 InfiniBand-Adapterfamilie, die für die anspruchsvollsten Arbeitslasten entwickelt wurde. Es kombiniert zwei QSFP56-Ports mit einer InfiniBand- oder Ethernet-Konnektivität von 200 Gb/s,Bereitstellung von hardwarebasiertem zuverlässigen TransportDurch die Abfertigung kollektiver Operationen, MPI-Tag-Matching und Verschlüsselung von der Host-CPU,Der Adapter reduziert den CPU-Overhead und erhöht die Anwendungsleistung in großflächigen ClusternUnternehmen, Forschungslabors und Hyper-Scale-Rechenzentren verlassen sich auf ConnectX-6 um energieeffiziente, langfristige Stoffe zu bauen.

Wesentliche Merkmale
Portgeschwindigkeit
Bis zu 200 Gb/s pro Port (HDR InfiniBand / 200 GbE)
Nachrichtenrate
Bis zu 215 Millionen Nachrichten/Sekunde
Hardwareverschlüsselung
XTS-AES 256/512-Bit auf Blockebene, FIPS-konform
In-Network-Computing
Gemeinsame Entlastungen, NVMe-oF-Ziel-/Initiatorentlastungen
Host-Schnittstelle
PCIe Gen 4.0/3.0 x16 (Hilfe für zwei Ports)
Virtualisierung
SR-IOV bis zu 1K VF, ASAP2, Open vSwitch offload
RDMA-Fähigkeiten
Unterstützung von RoCE, XRC, DCT, On-Demand Paging, Adaptive Routing
Formfaktor
Stand-up-PCIe (niedriges Profil), QSFP56 mit zwei Ports
Fortgeschrittene Technologie

ConnectX-6 basiert auf der bewährten InfiniBand-Architektur von NVIDIAIn-Network-ComputingDer Adapter unterstützt die Entwicklung von MPI-Anwendungen, Deep-Learning-Frameworks und Speicherprotokollen.Ferner direkter Speicherzugriff (RDMA)Die Hardware-basierte Überlastungskontrolle gewährleistet eine vorhersehbare Leistung auch unter starker Last.NVIDIA GPUDirect RDMAermöglicht den direkten Datenaustausch zwischen GPU-Speicher und dem Netzwerkadapter, wodurch die Latenzzeit für die KI-Ausbildung verringert wird.NVMe über Stoffe (NVMe-oF)Die Karte reduziert die CPU-Auslastung in Speicher-Arrays und ermöglicht gleichzeitig einen hohen Durchsatz und einen niedrigen Latenzzugang zu NVMe-Flash.

Typische Einsätze
  • Hochleistungsrechner (HPC):Größere Simulationen, Wettermodelle und fluidische Computerdynamik, die eine geringe Latenzzeit und eine hohe Bandbreite erfordern.
  • Kluster für KI und maschinelles LernenVerteiltes Training von tiefen neuronalen Netzwerken, mit GPUDirect und RDMA für maximale Effizienz.
  • NVMe-oF-Speichersysteme:Ziel- oder Initiator-Auslastungen ermöglichen einen leistungsstarken dezaggregierten Speicher mit geringem CPU-Overhead.
  • Datenzentren auf Hyperskala:Virtualisierte Umgebungen mit SR-IOV, Überlagerungsnetzwerken und Service-Chaining.
  • Finanzdienstleistungen:Ultra-Low-Latency-Handelsinfrastruktur, die eine deterministische Leistung erfordert.
Vereinbarkeit

Der ConnectX-6 MCX653106A-ECAT ist mit einer Vielzahl von Servern, Switches und Betriebssystemen kompatibel.mit einer Leistung von mehr als 50 W und einer Leistung von mehr als 50 WDer Adapter unterstützt Standard-PCIe-Slots (x16, x8, x4) und enthält Treiberunterstützung für die wichtigsten Betriebssystemplattformen.

Technische Spezifikation
Parameter Spezifikation
Produktmodell Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge.
Datenrate 200 Gbps, 100 Gbps, 50 Gbps, 40 Gbps, 25 Gbps, 10 Gbps, 1 Gbps (InfiniBand und Ethernet)
Häfen 2x QSFP56-Anschlüsse
Host-Schnittstelle PCIe Gen 4.0 / 3.0 x16 (unterstützt x8, x4, x2, x1 Konfigurationen)
Verzögerung Extrem geringe Submikrosekunden (typisch < 0,8 μs)
Nachrichtenrate Bis zu 215 Millionen Nachrichten/Sekunde
Verschlüsselung XTS-AES 256/512-Bit, FIPS 140-2-Konformität bereit
Formfaktor PCIe-Low-Profile-Stand-up (mit hoher Halterung montiert, kurze Halterung eingeschlossen)
Abmessungen (ohne Klammer) 167.65mm x 68.90mm
Stromverbrauch Typische 22 W (je nach Verkehr)
Virtualisierung SR-IOV (1K VFs), VMware NetQueue, NPAR, ASAP2 Flussentladung
Verwaltung NC-SI, MCTP über PCIe/SMBus, PLDM für Firmware-Aktualisierung und Überwachung
Fernsteuerung InfiniBand, iSCSI, PXE, UEFI
Betriebssysteme RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OFED-Stack
Anleitung zur Auswahl ConnectX-6 Adapter
Nummer des Bestellteils (OPN) Häfen Höchstgeschwindigkeit Host-Schnittstelle Hauptunterscheidungsmerkmal
Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge. 2x QSFP56 100 Gbit/s (auch niedriger) PCIe 3.0/4.0 x16 Dual-Port 100GbE/IB, erweiterte Offloads, Krypto optional? Keine eingebaute Krypto in dieser Variante, unterstützt aber Blockverschlüsselung über Software? Eigentlich Hardware-AES-Engine, konsultiere Spezifikationen;Ideal für Virtualisierung und Speicherung
Die in Absatz 1 genannten Anforderungen gelten nicht für die Berechnung der Leistungen. 1x QSFP56 200 Gbit/s PCIe 3.0/4.0 x16 Single-Port 200 Gb/s, Kryptounterstützung
Die in Absatz 1 genannten Vorschriften gelten für die in Absatz 1 genannten Fahrzeuge. 2x QSFP56 200 Gbit/s PCIe 3.0/4.0 x16 Dual-Port 200Gb/s volle Bandbreite, Krypto-Ablastung
Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge. 1x QSFP56 100 Gbit/s PCIe x16 Ein-Port 100Gb/s, kostengünstiger
MCX653436A-HDAT (OCP 3.0) 2x QSFP56 200 Gbit/s PCIe 3.0/4.0 x16 OCP 3.0 kleiner Formfaktor, mit zwei Anschlüsse
Hinweis: Nicht alle Funktionen (z. B. Krypto-Engine) sind in jedem OPN verfügbar. MCX653106A-ECAT konzentriert sich auf eine Dual-Port-Effizienz von 100 Gb/s mit einem vollständigen ConnectX-6-Funktionssatz einschließlich RDMA, Speicherauslastungen,und Virtualisierung. Für 200Gb/s Dual-Port sollten -HDAT-Varianten in Betracht gezogen werden. Bitte bestätigen Sie die Krypto-Anforderungen vor der Bestellung.
Warum ConnectX-6 MCX653106A-ECAT wählen
  • Maximierte Anwendungsleistung:Hardware-Ablastungen für MPI, NVMe-oF und Verschlüsselung befreien CPU-Kerne für tatsächliche Arbeitslasten.
  • Zukunftsfähige Bandbreite:PCIe 4.0 und 200Gb/s Bereitschaft sorgen für eine langlebige Lebensdauer in Hochgeschwindigkeitsgeweben.
  • Netzwerkspeicher und Computing:Unterstützt kollektive Entladungen und Burst-Puffer, wodurch die Datenbewegung reduziert wird.
  • Vertrauenswürdige Sicherheit:Die AES-XTS-Verschlüsselung auf Blockebene mit FIPS-Konformität gewährleistet den Schutz von Daten im Ruhezustand und während des Transits ohne Leistungsschlag.
  • Vereinfachte Verwaltung:Breite OS- und Hypervisorunterstützung mit einem einheitlichen Treiberstack (OFED, WinOF-2).
Service und Unterstützung

Hong Kong Starsurge Group bietet vollständigen technischen Support, Garantie-Abdeckung und RMA-Dienstleistungen für alle NVIDIA ConnectX Adapter.Firmware-UpdatesWir bieten weltweiten Versand, Massenpreise für Rechenzentrumsprojekte und individuelle Bestandsreservierungen.Kontaktieren Sie unser Verkaufsteam, um maßgeschneiderte Angebote und Details zur Lieferzeit zu erhalten..

Häufig gestellte Fragen
F: Ist MCX653106A-ECAT sowohl mit InfiniBand als auch mit Ethernet kompatibel?
A: Ja. Die ConnectX-6-Serie unterstützt den Betrieb mit zwei Protokollen: InfiniBand (bis zu 200 Gb/s pro Port) und Ethernet (bis zu 200 GbE).Das spezifische OPN unterstützt Geschwindigkeiten von bis zu 100 Gb/s für beide Protokolle, wenn es mit geeigneten Transceivern und Switches verwendet wird.
F: Unterstützt dieser Adapter GPU Direct RDMA?
A: Absolut. NVIDIA GPUDirect RDMA wird unterstützt, was eine direkte Kommunikation zwischen GPU-Speicher und dem Netzwerk ermöglicht, ideal für KI-Frameworks und MPI-Workloads.
F: Was ist der Unterschied zwischen -ECAT und -HDAT?
A: -ECAT bezeichnet eine Höchstgeschwindigkeit von 100 Gb/s (sowohl IB als auch ETH) mit bestimmten Feature-Sets; -HDAT bedeutet eine Kapazität von 200 Gb/s mit Hardware-Crypto und erweiterten Engines.Auswahl nach der erforderlichen Portbandbreite.
F: Kann ich diese Karte in einem PCIe 3.0-Slot verwenden?
A: Ja, es ist rückwärtskompatibel mit PCIe 3.0Die maximale Bandbreite kann jedoch im Vergleich zu PCIe 4 eingeschränkt sein.0.
F: Ist der Adapter mit NVMe-oF-Hardware ausgeladen?
A: Ja, ConnectX-6 bietet vollständige NVMe-oF-Ziel- und Initiator-Auslastungen, wodurch der CPU-Overhead für Speicher-Workloads erheblich reduziert wird.
Wichtige Vorsichtsmaßnahmen
• Stellen Sie sicher, dass das Server-Motherboard ausreichend Luft für Hochgeschwindigkeitsadapter hat.
• Stellen Sie sicher, dass der PCIe-Slot ausreichend Strom liefert (bis zu 75 W über den Slot; dieser Adapter verwendet in der Regel < 25 W).
• Für flüssiggekühlte Plattformen prüfen Sie die Kompatibilität mit Intel Server System D50TNP, wenn eine Kaltplattenvariante erforderlich ist (dieser OPN ist standardmäßig luftgekühlt).
• Überprüfen Sie die Kompatibilität der Betriebssystemtreiber mit den neuesten OFED- oder WinOF-2-Stacks.
Über die Hong Kong Starsurge Group

Seit 2008 liefert die Hong Kong Starsurge Group Co., Limited weltweit Netzwerkhardware, Systemintegration und IT-Dienstleistungen auf Unternehmensebene.Starsurge bietet zertifizierte Lösungen für die RegierungDas technische Team sorgt für eine reibungslose Implementierung, von der Vorverkaufs-Architektur bis hin zum Nachverkaufs-Support.,Wir bieten maßgeschneiderte, skalierbare Infrastrukturkomponenten, einschließlich NICs, Switches, Kabeln und End-to-End-Netzwerklösungen.

Weltweite Lieferung · Mehrsprachiger Support · OEM-Dienstleistungen verfügbar

Die wichtigsten Fakten auf einen Blick
2x 100 Gb/s-Anschlüsse
215 Msgs/Sekunde
PCIe 4.0 x16
XTS-AES + FIPS
SR-IOV (1K VF)
NVMe-oF-Auslastung
Kompatibilitätsmatrix (schnelle Referenz)
Komponente / Ökosystem Unterstützt Anmerkungen
NVIDIA Quantum HDR-Schalter ✓ Ja 200 Gb/s vollständige Gewebeintegration
Ethernet 200G/100G-Switches ✓ Ja Erfordert kompatible Transceiver/FEC-Modi
GPU Direct RDMA ✓ Ja NVIDIA-GPU-Serie unterstützt
VMware vSphere / ESXi ✓ Zertifiziert Einheimische Fahrer, Unterstützung von SR-IOV
Windows Server 2019/2022 ✓ Ja WinOF-2-Treiberpaket
Linux Kernel und OFED ✓ volle Unterstützung MLNX_OFED, Inbox-Treiber
Checkliste des Käufers Vor der Bestellung
  • Bestätigen Sie die erforderliche Verbindungsgeschwindigkeit: 100Gb/s Dual-Port erfüllt Ihren Cluster-Bandbreitenplan? Für 200Gb/s Dual-Port, betrachten -HDAT OPN.
  • Überprüfen Sie den Server PCIe-Slot: x16 physikalisch, Gen 3 oder Gen 4 empfohlen.
  • Kontrollkabeltyp: QSFP56 passives Kupfer (bis zu 5 m) oder aktive optische Kabel für längere Reichweite.
  • Sicherstellen, dass Betriebssystemtreiber verfügbar sind (OFED, WinOF).
  • Für Verschlüsselungsanforderungen: Bestätigen Sie, ob eine eingebaute Blockverschlüsselung erforderlich ist. MCX653106A-ECAT unterstützt AES-XTS, bestätigen Sie jedoch immer die FIPS-Ebene mit dem NVIDIA-Datenblatt.
  • Bewertung der Virtualisierungsbedürfnisse: SR-IOV, VXLAN-Offload usw.

Möchten Sie mehr über dieses Produkt erfahren?
Ich bin daran interessiert NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT 200 Gbit/s Smart NIC Könnten Sie mir weitere Details wie Typ, Größe, Menge, Material usw. senden?
Vielen Dank!
Auf deine Antwort wartend.