Protokoll | 100 Gigabit Ethernet, 100 Gigabit InfiniBand |
Hastighet | 100 Gbps |
Grensesnitt | PCI Express 3.0 x16 |
- Bransjeledende gjennomstrømning, lav latenstid/CPU-utnyttelse og høy meldingsfrekvens
- Innovativ rackdesign for lagring og ML basert på Host Chaining-teknologi
- Smart sammenkobling for x86-, Power-, ARM- og GPU-basert databehandling og lagring
- Avanserte lagringsfunksjoner, inkludert NVMe over Fabric offloads
- Banebrytende ytelse i virtualiserte nettverk, inkludert NFV
- Muliggjør effektiv tjenestekjeding
- Forbedret avlastning av vSwitch
- Adaptiv ruting på pålitelig transport
- NVMe over Fabric (NVMf)-målavlastninger
- Maskinvareavlastning for NVGRE- og VXLAN-innkapslet trafikk
- QoS fra ende til ende og overbelastningskontroll
NVIDIA Mellanox ConnectX-5-adaptere tilbyr avansert maskinvareavlastning som reduserer CPU-ressursforbruket og gir ekstremt høye pakkehastigheter og gjennomstrømning. Dette øker effektiviteten i datasenterets infrastruktur og gir den mest fleksible løsningen med høyest ytelse for Web 2.0-, sky-, dataanalyse- og lagringsplattformer.