Markenname:
Mellanox
Modellnummer:
MCX653106A-ECAT
Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge.
Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge.Virtual Protocol Interconnect (VPI) -Karten sind eine bahnbrechende Ergänzung der ConnectX-Serie branchenführender Netzwerkadapterkarten.Bereitstellung von zwei Ports von 100 Gb/s für InfiniBand- und Ethernet-Konnektivität, Unter-600ns Latenz und 215 Millionen Nachrichten pro Sekunde,ConnectX-6 VPI-Karten ermöglichen die leistungsstärkste und flexibelste Lösung, die den ständig wachsenden Anforderungen von Rechenzentrumsanwendungen gerecht wirdZusätzlich zu allen bestehenden innovativen Funktionen früherer Versionen bieten die ConnectX-6-Karten eine Reihe von Verbesserungen zur weiteren Verbesserung der Leistung und Skalierbarkeit.
Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge. VPI unterstützt HDR, HDR100, EDR, FDR, QDR, DDR und SDR InfiniBand-Geschwindigkeiten sowie 200, 100, 50, 40, 25 und 10Gb/s Ethernet-Geschwindigkeiten.
Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge.Vorteile
* Branchenführender Durchsatz, geringe CPU-Auslastung und hohe Nachrichtenrate
* Höchste Leistung und intelligenteste Struktur für Rechen- und Speicherinfrastrukturen
* Spitzenleistung in virtualisierten Netzwerken einschließlich Network Function Virtualization (NFV)
* Host-Chaining-Technologie für eine wirtschaftliche Rackkonstruktion
* Intelligente Verbindung für x86, Power, Arm, GPU und FPGA-basierte Rechen- und Speicherplattformen
* Flexible programmierbare Pipeline für neue Netzströme
* Effiziente Anbindung an die Dienstkette
* Erhöhte Effizienz der I/O-Konsolidierung, Reduzierung der Kosten und Komplexität von Rechenzentren
NVMe-Speichergeräte gewinnen an Dynamik und bieten einen sehr schnellen Zugriff auf Speichermedien.Das sich weiterentwickelnde NVMe over Fabrics (NVMe-oF) -Protokoll nutzt RDMA-Konnektivität, um effizient auf NVMe-Speichergeräte zuzugreifen, während die end-to-end NVMe
Mit seinen NVMe-oF-Ziel- und Initiator-Auslastungen bringt ConnectX-6 eine weitere Optimierung von NVMe-oF mit sich, was die CPU-Auslastung und Skalierbarkeit verbessert.
Die Datenanalyse ist zu einer wesentlichen Funktion in vielen Unternehmensdatenzentren, Clouds und Hyper-Scale-Plattformen geworden.Maschinelles Lernen (ML) setzt auf besonders hohen Durchsatz und geringe Latenzzeit, um tiefe neuronale Netzwerke und
Mit seinem Durchsatz von 200 Gb/s ist ConnectX-6 eine ausgezeichnete Lösung, um ML-Anwendungen mit
Leistung und Skalierbarkeit, die sie benötigen.
ConnectX-6-Block-Level-Verschlüsselung bietet eine entscheidende Innovation für die Netzwerksicherheit.Die ConnectX-6-Hardware entlastet die IEEE AES-XTS-Verschlüsselung/Entschlüsselung von der
Es garantiert auch den Schutz für Benutzer, die dieselben Ressourcen durch die Verwendung von dedizierten Verschlüsselungsschlüsseln teilen.Außerdem kann ConnectX-6
Einhaltung der Informationsverarbeitungsstandards (FIPS).
ConnectX-6 ist in zwei Formfaktoren erhältlich: Low-Profile Stand-up PCIe und Open Compute Project (OCP) Spec 3.0 Karten mit QSFP-Anschlüssen.Stand-up-PCIe-Adapter sind entweder auf Basis von ConnectX-6 oder ConnectX-6 DE verfügbar (ConnectX-6 Dx erweitert für HPC-Anwendungen).
Darüber hinaus sind spezifische PCIe-Stand-up-Karten mit einer Kaltplatte zur Einfügung in flüssiggekühlte Intel Server System D50TNP-Plattformen erhältlich.
Mit seinen NVIDIA In-Network Computing- und In-Network Memory-Fähigkeiten übernimmt ConnectX-6 Berechnungen noch weiter ins Netzwerk und spart CPU-Zyklen
ConnectX-6 nutzt Remote Direct Memory Access (RDMA) -Technologie, wie sie in der InfiniBand Trade Association (IBTA) -Spezifikation definiert ist.
ConnectX-6 verbessert die RDMA-Netzwerkfähigkeiten noch weiter, indem es eine End-to-End-Flow-Kontrolle auf Paketebene bereitstellt.
ConnectX-6Die in Absatz 1 genannten Anforderungen gelten nicht für die in Absatz 1 genannten Fahrzeuge.bietet auch Optionen für NVIDIA Socket DirectTM-Konfigurationen, die die Leistung von Multi-Socket-Servern verbessern, indem jede ihrer CPUs
Dies ermöglicht es Daten, den QPI (UPI) und die andere CPU zu umgehen, wodurch Latenz, Leistung und CPU-Nutzung verbessert werden.Socket Direct ermöglicht auch NVIDIA GPUDirect® RDMA für alle CPU/GPU-Paare, indem sichergestellt wird, dass die GPUs mit den CPUs am nächsten an der Adapterkarte verbunden sindSocket Direct ermöglicht die Optimierung von Intel® DDIO auf beiden Sockets, indem eine direkte Verbindung zwischen den Sockets und der Adapterkarte hergestellt wird.
F1. Was können Sie von uns kaufen?
A:Mellanox, Aruba, Rukus, Produkte der Marke Extreme, einschließlich Schalter, Netzwerkkarten, Kabel, Access Point usw.
F2. Wie sieht es mit dem Lieferdatum aus?
A:Es dauert in der Regel 3-5 Werktage. Für bestimmte Modelle kontaktieren Sie uns bitte, um den Vorrat zu überprüfen. Am Ende wird die eigentliche Beratung vorherrschen. Wir werden unser Bestes tun, um so schnell wie möglich zu liefern.
Q3. Was sind Ihre Garantiebedingungen?
A: Wir liefern 12 Monate Garantiezeit.
F4. Wie sieht es mit der Versandmethode aus?
A: Wir verwenden Fedex/DHL/UPS/TNT und andere Luftfracht, Seefracht ist auch möglich. Mit einem Wort, wir könnten alle Lieferungen machen, die Sie wollten.
Q5. Kann ich ein paar Proben bekommen?
A: Ja, die Bestellung der Probe ist für die Qualitätsprüfung und Marktprüfung verfügbar. Sie müssen nur die Kosten für die Probe und die Expresskosten bezahlen.
F6. Was sind Ihre Kernstärken?
A: Erste Lieferung, Original- und neue Produkte mit günstigem Preis und perfektem Kundendienst.
Schicken Sie uns Ihre Untersuchung direkt