Каталог
Загрузка ...
Адаптеры серии ConnectX-4 с технологией Virtual Protocol Interconnect (VPI) поддерживают скорость передачи данных EDR 100Gb/s InfiniBand и 100Gb/s Ethernet.
Стремительный рост объема хранимых и обрабатываемых данных сформировал новые требования к высокоскоростным и высокопроизводительным вычислительным цент...
Адаптеры серии ConnectX-4 с технологией Virtual Protocol Interconnect (VPI) поддерживают скорость передачи данных EDR 100Gb/s InfiniBand и 100Gb/s Ethernet.
Стремительный рост объема хранимых и обрабатываемых данных сформировал новые требования к высокоскоростным и высокопроизводительным вычислительным центры и центрам хранения данных. ConnectX-4 обеспечивает исключительно высокую производительность для центров обработки данных, публичных и частных облаков, Web2.0 и обработки больших данных (Big Data).
ConnectX-4 компании Mellanox представляет самый высокопроизводительный адаптер VPI, поддерживающий EDR 100Gb / s InfiniBand и 100Gb / s Ethernet и позволяющий любым стандартным сетям, кластерам или хранилищу бесшовно работать по любой конвергентной сети, используя консолидированный стек программного обеспечения.
Технология ConnectX-4 SR-IOV обеспечивает выделенные ресурсы адаптера и гарантированную изоляцию и защиту виртуальных машин (виртуальных машин) на сервере. Виртуализация ввода-вывода с помощью ConnectX-4 позволяет администраторам центров обработки данных лучше использовать сервер, снижая затраты, мощность и сложность кабельного хозяйства, предоставляя больше виртуальных машин и больше арендаторов на одном и том же оборудовании.
Чтобы лучше масштабировать свои сети, операторы центров обработки данных часто создают оверлейные сети, которые переносят трафик с отдельных виртуальных машин по логическим туннелям в инкапсулированные форматы, такие как NVGRE и VXLAN. Хотя это решает проблемы масштабируемости сети, он скрывает TCP-пакет от аппаратных выгружающих устройств, повышая нагрузку на центральный процессор. ConnectX-4 эффективно устраняет это, предоставляя усовершенствованные устройства для разгрузки аппаратных средств NVGRE и VXLAN, которые инкапсулируют и дезакулируют заголовки протоколов оверлей, позволяя выполнять традиционные разгрузки по инкапсулированному трафику. С помощью ConnectX-4 операторы ЦОД могут достичь собственной производительности в новой сетевой архитектуре.
Mellanox ConnectX-4 EN использует ряд новых технологий, позволяющих повысить производительность и получить новые возможности не только адаптера, но и сети в целом.
Mellanox ConnectX-4 EN предлагает технологию ускоренного переключения и обработки пакетов (ASAP2) для выполнения операций разгрузки в гипервизоре, включая путь передачи данных, парсинг пакетов, инкапсуляцию / декапсуляцию VxLAN и NVGRE и т. Д.
ASAP2 позволяет разгружать, обрабатывая плоскость данных в аппаратном обеспечении NIC с помощью SR-IOV, при этом поддерживая плоскость управления, используемую в современных программных решениях без изменений. В результате достигается значительно более высокая производительность без соответствующей загрузки ЦП. ASAP2 имеет два формата: ASAP2 Flex ™ и ASAP2 Direct ™. Одним из примеров виртуального коммутатора, который ASAP2 может разгрузить, является OpenVSwitch (OVS).
ConnectX-4, используя технологию IBTA RDMA (Remote Data Memory Access) и RoCE (RDMA over Converged Ethernet), обеспечивает низкую задержку и высокую производительность по сетям InfiniBand и Ethernet. Используя возможности мостового соединения центра обработки данных (DCB), а также усовершенствованные аппаратные средства управления перегрузкой ConnectX-4, RoCE обеспечивает эффективные услуги RDMA с низкой задержкой в сетях уровня 2 и уровня 3.
Связь PeerDirect обеспечивает высокоэффективный доступ к RDMA, устраняя ненужные внутренние копии данных между компонентами шины PCIe (например, от GPU до CPU) и, следовательно, значительно сокращает применение
время выполнения. Технология расширенного ускорения ConnectX-4 позволяет повысить эффективность и масштабируемость кластера до десятков тысяч узлов.
Приложения хранения данных улучшат производительность при использовании EDR с более высокой пропускной способностью. Более того, стандартные протоколы доступа к блокам и файлу могут использовать RoCE и InfiniBand RDMA для высокопроизводительного доступа к хранилищу. Консолидированная сеть вычислений и хранения обеспечивает значительные преимущества в отношении затрат по сравнению с многоканальными сетями.
ConnectX-4 Mellanox обеспечивает расширенную способность разгрузки кодов Erasure, позволяя создавать распределенный RAID (избыточный массив недорогих дисков), технологию хранения данных, которая объединяет несколько накопителей в логическую единицу с целью избыточности данных и повышения производительности. Функция Reed-Solomon семейства ConnectX-4 представляет избыточные блочные вычисления, которые вместе с RDMA, обеспечивает высокую производительность и надежный доступ к хранилищу.
ConnectX-4 поддерживает аппаратную проверку информации о прохождении / защите данных T10 Data Tensity (T10-DIF / PI), уменьшая накладные расходы процессора и ускоряя доставку данных в приложение. Передача подписи обрабатывается адаптером на входных и / или выходных пакетах, уменьшая нагрузку на ЦП на машинах инициатора и / или целевых машинах.
Virtual Protocol Interconnect (VPI)
VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.
Адаптер Mellanox VPI MCX453A-FCAT ConnectX-4 Адаптер Mellanox VPI MCX453A-FCAT ConnectX-4, 1 port QSFP28, FDR IB (56Gb/s), 40/56GbE скорость передачи до EDR 100Gb/s InfiniBand или 100Gb/s Ethernet на каждый порт Поддержка скоростей 1/10/20/25/40/50/56/100 Гбит/с 150 миллионов пакетов в секунду Один порт QSFP28 Шина PCIe3.0, 8 линий Полноразмерная и...
Адаптер Mellanox VPI MCX454A-FCAT ConnectX-4 Адаптер Mellanox VPI MCX454A-FCAT ConnectX-4, 2 port QSFP28, FDR IB (56Gb/s), 40/56GbE скорость передачи до EDR 100Gb/s InfiniBand или 100Gb/s Ethernet на каждый порт Поддержка скоростей 1/10/20/25/40/50/56/100 Гбит/с 150 миллионов пакетов в секунду Два порта QSFP28 Шина PCIe3.0, 8 линий Полноразмерная и...
Адаптер Mellanox VPI MCX455A-FCAT ConnectX-4 Адаптер Mellanox VPI MCX455A-FCAT ConnectX-4, 1 port QSFP28, FDR IB (56Gb/s), 40/56GbE скорость передачи до EDR 100Gb/s InfiniBand или 100Gb/s Ethernet на каждый порт Поддержка скоростей 1/10/20/25/40/50/56/100 Гбит/с 150 миллионов пакетов в секунду Один порт QSFP28 Шина PCIe3.0, 16 линий Полноразмерная и...
Адаптер Mellanox VPI MCX456A-FCAT ConnectX-4 Адаптер Mellanox VPI MCX456A-FCAT ConnectX-4, 2 port QSFP28, FDR IB (56Gb/s), 40/56GbE скорость передачи до EDR 100Gb/s InfiniBand или 100Gb/s Ethernet на каждый порт Поддержка скоростей 1/10/20/25/40/50/56/100 Гбит/с 150 миллионов пакетов в секунду Два порта QSFP28 Шина PCIe3.0, 16 линий Полноразмерная и...
Адаптер Mellanox VPI MCX455A-ECAT ConnectX-4 Адаптер Mellanox VPI MCX455A-ECAT ConnectX-4, 1 port QSFP28, EDR IB (100Gb/s), 100GbE скорость передачи до EDR 100Gb/s InfiniBand и 100Gb/s Ethernet на каждый порт Поддержка скоростей 1/10/20/25/40/50/56/100 Гбит/с 150 миллионов пакетов в секунду Один порт QSFP28 Шина PCIe 3.0 16 линий В комплекте...
Адаптер Mellanox VPI MCX456A-ECAT ConnectX-4 Адаптер Mellanox VPI MCX456A-ECAT ConnectX-4, 2 port QSFP28, EDR IB (100Gb/s), 100GbE скорость передачи до EDR 100Gb/s InfiniBand или 100Gb/s Ethernet на каждый порт Поддержка скоростей 1/10/20/25/40/50/56/100 Гбит/с 150 миллионов пакетов в секунду Два порта QSFP28 Шина PCIe 3.0 16 линий Полноразмерная и...