Адаптеры Infiniband

Адаптеры HCA InfiniBand Mellanox Connectx

Обзор

   Адаптеры Mellanox InfiniBand серии Connectx обеспечивают повышенные уровни ИТ-производительности, эффективности и масштабируемости ИТ-центра.
   Mellanox сохраняет свое лидерство, предоставляя адаптеры Host Link InfiniBand HCA) - самое высокопроизводительное решение для межсетевых соединений для ...

Адаптеры HCA InfiniBand Mellanox Connectx

Обзор

   Адаптеры Mellanox InfiniBand серии Connectx обеспечивают повышенные уровни ИТ-производительности, эффективности и масштабируемости ИТ-центра.
   Mellanox сохраняет свое лидерство, предоставляя адаптеры Host Link InfiniBand HCA) - самое высокопроизводительное решение для межсетевых соединений для корпоративных центров данных, WEB 2.0, облачных вычислений, высокопроизводительных вычислений и встроенных сред.

Адаптер Infiniband Connectx-4 Mellanox   Для высокопроизводительных вычислений требуется высокая пропускная способность, низкая латентность (задержки передачи данных) и разгрузка процессора, чтобы получить максимальную эффективность сервера и производительность приложений. Mellanox HCAs обеспечивают максимальную пропускную способность и минимальную задержку любого стандартного межсоединения, что обеспечивает эффективность КПД более 95%.
   Для центров обработки данных и облачных вычислений требуются услуги ввода-вывода, такие как пропускная способность, консолидация и унификация, а также гибкость. HCA от Mellanox поддерживают консолидацию трафика LAN и SAN и обеспечивают аппаратное ускорение для виртуализации серверов.
   Гибкость виртуального протокола Interconnect® (VPI) обеспечивает соединение InfiniBand, Ethernet, мостовое соединение с данными, подключение EoIB, FCoIB и FCoE.

Преимущества Mellanox InfiniBand адаптеров Connectx

  • Производительность кластера мирового класса
  • Высокопроизводительный сетевой доступ и доступ к хранилищу
  • Эффективное использование вычислительных ресурсов
  • Передовая производительность в виртуализированных оверлейных сетях (VXLAN и NVGRE)
  • Увеличение количества виртуальных машин на сервер
  • Гарантированная пропускная способность и услуги с низкой задержкой
  • Надежный транспорт
  • Эффективная консолидация ввода-вывода, снижение затрат и сложности центра обработки данных
  • Масштабируемость до десятков тысяч узлов

Целевые приложения

  • Высокопроизводительные параллельные вычисления
  • Виртуализация центров обработки данных
  • Общественные и частные облака
  • Крупномасштабные приложения для Web 2.0 и анализа данных
  • Кластеризованные приложения баз данных, параллельные запросы СУРБД, хранилища с высокой пропускной способностью
  • Латентные чувствительные приложения, такие как финансовый анализ и торговля
  • Приложения для хранения данных, такие как резервное копирование, восстановление, зеркалирование и т. д.
Читать дальше >>

Адаптеры Infiniband Нет товаров в этой категории.

Подкатегории

  • ConnectX-6 VPI...

    Адаптеры 200Gb/s ConnectX-6 VPI Mellanox

       ConnectX-6 является новаторским дополнением к ведущим в отрасли адаптерам Mellanox ConnectX. В дополнение ко всем существующим инновационным функциям прошлых версий ConnectX-6 предлагает ряд улучшений для дальнейшего повышения производительности и масштабируемости. ConnectX-6 VPI поддерживает скорости HDR, HDR100, EDR, FDR, QDR, DDR и SDR InfiniBand, а также скорости Ethernet 200, 100, 50, 40, 25 и 10 Гбит / с.

    Адаптер Connectx-6 Mellanox

    Новые возможности Mellanox ConnectX-6

    • Высокая производительность
    • До 200 Гбит / с для каждого порта
    • Максимальная пропускная способность 200 Гбит / с
    • До 200 миллионов сообщений в секунду
    • Менее 0.6 мкс латентность
    • Аппаратное шифрование на уровне блока XTS-AES
    • Поддержка PCIe Gen3 и PCIe Gen4

    Выгоды Mellanox ConnectX-6

    • Ведущая в отрасли пропускная способность, низкая латентность, низкое использование ЦП и высокая скорость передачи сообщений выводит адаптеры Mellanox Connecrx-6 в абсолютные лидеры рынка.
    • Высокая производительность и самая интеллектуальная структура фабрики для вычислительных инфраструктур и инфраструктур хранения.
    • Расширенные возможности хранения данных, включая блокировку на уровне блоков и выгрузку контрольной суммы.
    • Технология Host Chaining для экономичной конструкции стойки.
    • Интеллектуальное соединение для платформ x86, Power, ARM, GPU и FPGA для вычислений и хранения.
    • Интеллектуальный сетевой адаптер, поддерживающий гибкую программируемость.
    • Передовая производительность в виртуализированных сетях, включая виртуализацию сетевых функций (NFV).
    • Поддержка эффективных возможностей цепочки обслуживания.
    • Эффективная консолидация ввода-вывода, снижение затрат и сложности центра обработки данных

    Машинное обучение и среды больших данных (Big Data)

       Аналитика данных стала важной функцией во многих корпоративных центрах обработки данных, облаках и платформах Hyperscale. Машинное обучение опирается на особенно высокую пропускную способность и низкую задержку для обучения глубоких нейронных сетей и для повышения точности распознавания и классификации. В качестве первой платы адаптера с пропускной способностью 200 Гбит / с ConnectX-6 является идеальным решением для приложений машинного обучения с требуемыми уровнями производительности и масштабируемости. ConnectX-6 использует технологию RDMA для обеспечения низкой латентности и высокой производительности. ConnectX-6 еще больше расширяет возможности RDMA-сети, обеспечивая сквозное управление потоком пакетов на уровне пакетов.

    Virtual Protocol Interconnect (VPI)

       VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.

  • ConnectX-5 VPI...

    Адаптеры ConnectX-5 VPI Mellanox

       Адаптеры Mellanox серии ConnectX-5 VPI поддерживает один или два порта со скоростью 100 Гбит/с по протоколу Ethernet или EDR Infiniband с латентностью менее 600 нс. Технология NVMe поверх Fabric обеспечивает максимальную производительность и наиболее гибкое решение для самых требовательных приложений и рынков.

    Адаптер VPI Mellanox Connectx-5

    Основные особенности Connectx-5 VPI

    • скорость передачи до 100Gb/s Ethernet, 100Gb/s EDR IB
    • Поддержка скоростей 1/10/25/40/50/100 Гбит/с
    • до 200 миллионов пакетов в секунду
    • доступны одно- и двухпортовые конфигурации
    • поддержка таргета NVMe over Fabric (NVMf)
    • разгрузка Enhanced vSwitch / vRouter
    • Разгрузка Erasure Coding
    • Поддержка T10-DIF Signature Handover
    • Аппаратная разгрузка инкапсулированного трафика NVGRE и VXLAN
    • Поддержка IBM CAPI v2
    • Разгрузка центрального процессора
    • Разгрузка приложений
    • Mellanox PeerDirect™ communication acceleration
    • Сквозное управление QoS и контроль перегрузок
    • Аппаратная виртуализация ввода-вывода
    • Инкапсуляция Ethernet (EoIB)
    • RoHS-R6

    Применение Mellanox Connectx-5 VPI

    Высокопроизводительные вычисления (HPC)

       ConnectX-5 компании Mellanox обеспечивает высокую пропускную способность, низкую задержку и высокую эффективность вычислений для высокопроизводительных, масштабируемых платформ вычисления и хранения. ConnectX-5 предлагает усовершенствования инфраструктуры HPC, предоставляя разгрузку MPI и SHMEM / PGAS и Rendezvous Tag Matching, аппаратную поддержку для операций записи и чтения RDMA не по порядку, а также дополнительную поддержку Atom Atomic и PCIe Atomic.
       ConnectX-5 VPI использует технологии IBTA RDMA (Remote Data Memory Access) и RoCE (RDMA over Converged Ethernet), обеспечивая низкую латентностью и высокую производительность. ConnectX-5 расширяет возможности сети RDMA, дополняя возможности коммутации адаптивной маршрутизации и поддерживая данные, поставляемые вне порядка, сохраняя при этом упорядоченную семантику завершения, обеспечивая многолучевую надежность и эффективную поддержку для всех сетевых топологий, включая DragonFly и DragonFly +. ConnectX-5 также поддерживает разгрузку буфера для фоновой контрольной точки без вмешательства в основные операции ЦП и инновационный транспортный сервис Dynamic Connected Transport (DCT) для обеспечения максимальной масштабируемости для вычислительных и запоминающих систем.

    Системы хранения

       Накопители NVMe набирают популярность, предлагая очень быстрый доступ к хранилищу. Развивающийся протокол NVMe over Fabric (NVMf) использует возможности RDMA для удаленного доступа. ConnectX-5 предлагает дополнительные улучшения, предоставляя целевые разгрузки NVMf, обеспечивая очень эффективный доступ к хранилищу NVMe без вмешательства ЦП, таким образом, увеличивая производительность и уменьшая задержку.
    Кроме того, встроенный переключатель PCIe позволяет клиентам создавать автономные устройства хранения данных или устройства для машинного обучения. Как и в предыдущих поколениях адаптеров ConnectX, стандартные протоколы доступа к блокам и файлу могут использовать RoCE для высокопроизводительного доступа к хранилищу. Консолидированная сеть вычислений и хранения достигает значительных преимуществ по сравнению с традиционными разделенными сетями.

    Облачные технологии

       Технология ConnectX-5 Accelerated Switching and Packet Processing (ASAP2 ™) улучшает разгрузку виртуальных коммутаторов, например Open V-Switch (OVS), что приводит к значительно более высокой производительности передачи данных без перегрузки CPU. Вместе с поддержкой RDMA и RoCE, ConnectX-5 значительно улучшает эффективность платформы Cloud и NFV.

    Virtual Protocol Interconnect (VPI)

       VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.

  • ConnectX-4 VPI...

    Адаптеры ConnectX-4 VPI Mellanox

       Адаптеры серии ConnectX-4 с технологией Virtual Protocol Interconnect (VPI) поддерживают скорость передачи данных EDR 100Gb/s InfiniBand и 100Gb/s Ethernet.

       Стремительный рост объема хранимых и обрабатываемых данных сформировал новые требования к высокоскоростным и высокопроизводительным вычислительным центры и центрам хранения данных. ConnectX-4 обеспечивает исключительно высокую производительность для центров обработки данных, публичных и частных облаков, Web2.0 и обработки больших данных (Big Data).

    Адаптер VPI Mellanox Connectx-4

    Основные особенности Connectx-4 VPI Mellanox

    • скорость передачи до EDR 100Gb/s InfiniBand или 100Gb/s Ethernet на каждый порт
    • Поддержка скоростей 1/10/20/25/40/50/56/100 Гбит/с
    • 150 миллионов пакетов в секунду
    • доступны одно- и двухпортовые конфигурации
    • Разгрузка Erasure Coding
    • Поддержка T10-DIF Signature Handover
    • поддержка всех технологий Virtual Protocol Interconnect (VPI)
    • Аппаратная разгрузка инкапсулированного трафика NVGRE и VXLAN
    • Поддержка Power8 CAPI
    • Разгрузка центрального процессора
    • Разгрузка приложений
    • Mellanox PeerDirect™ communication acceleration
    • Сквозное управление QoS и контроль перегрузок
    • Аппаратная виртуализация ввода-вывода
    • Инкапсуляция Ethernet (EoIB)
    • RoHS-R6

    100Gb / s адаптер виртуального протокола (VPI)

       ConnectX-4 компании Mellanox представляет самый высокопроизводительный адаптер VPI, поддерживающий EDR 100Gb / s InfiniBand и 100Gb / s Ethernet и позволяющий любым стандартным сетям, кластерам или хранилищу бесшовно работать по любой конвергентной сети, используя консолидированный стек программного обеспечения.

    Виртуализация ввода-вывода

       Технология ConnectX-4 SR-IOV обеспечивает выделенные ресурсы адаптера и гарантированную изоляцию и защиту виртуальных машин (виртуальных машин) на сервере. Виртуализация ввода-вывода с помощью ConnectX-4 позволяет администраторам центров обработки данных лучше использовать сервер, снижая затраты, мощность и сложность кабельного хозяйства, предоставляя больше виртуальных машин и больше арендаторов на одном и том же оборудовании.

    Оверлейные сети

       Чтобы лучше масштабировать свои сети, операторы центров обработки данных часто создают оверлейные сети, которые переносят трафик с отдельных виртуальных машин по логическим туннелям в инкапсулированные форматы, такие как NVGRE и VXLAN. Хотя это решает проблемы масштабируемости сети, он скрывает TCP-пакет от аппаратных выгружающих устройств, повышая нагрузку на центральный процессор. ConnectX-4 эффективно устраняет это, предоставляя усовершенствованные устройства для разгрузки аппаратных средств NVGRE и VXLAN, которые инкапсулируют и дезакулируют заголовки протоколов оверлей, позволяя выполнять традиционные разгрузки по инкапсулированному трафику. С помощью ConnectX-4 операторы ЦОД могут достичь собственной производительности в новой сетевой архитектуре.

       Mellanox ConnectX-4 EN использует ряд новых технологий, позволяющих повысить производительность и получить новые возможности не только адаптера, но и сети в целом.

    ASAP2

       Mellanox ConnectX-4 EN предлагает технологию ускоренного переключения и обработки пакетов (ASAP2) для выполнения операций разгрузки в гипервизоре, включая путь передачи данных, парсинг пакетов, инкапсуляцию / декапсуляцию VxLAN и NVGRE и т. Д.
       ASAP2 позволяет разгружать, обрабатывая плоскость данных в аппаратном обеспечении NIC с помощью SR-IOV, при этом поддерживая плоскость управления, используемую в современных программных решениях без изменений. В результате достигается значительно более высокая производительность без соответствующей загрузки ЦП. ASAP2 имеет два формата: ASAP2 Flex ™ и ASAP2 Direct ™. Одним из примеров виртуального коммутатора, который ASAP2 может разгрузить, является OpenVSwitch (OVS).

    RDMA и RoCE

       ConnectX-4, используя технологию IBTA RDMA (Remote Data Memory Access) и RoCE (RDMA over Converged Ethernet), обеспечивает низкую задержку и высокую производительность по сетям InfiniBand и Ethernet. Используя возможности мостового соединения центра обработки данных (DCB), а также усовершенствованные аппаратные средства управления перегрузкой ConnectX-4, RoCE обеспечивает эффективные услуги RDMA с низкой задержкой в сетях уровня 2 и уровня 3.

    Mellanox PeerDirect

       Связь PeerDirect обеспечивает высокоэффективный доступ к RDMA, устраняя ненужные внутренние копии данных между компонентами шины PCIe (например, от GPU до CPU) и, следовательно, значительно сокращает применение
    время выполнения. Технология расширенного ускорения ConnectX-4 позволяет повысить эффективность и масштабируемость кластера до десятков тысяч узлов.


    Ускорение хранения

       Приложения хранения данных улучшат производительность при использовании EDR с более высокой пропускной способностью. Более того, стандартные протоколы доступа к блокам и файлу могут использовать RoCE и InfiniBand RDMA для высокопроизводительного доступа к хранилищу. Консолидированная сеть вычислений и хранения обеспечивает значительные преимущества в отношении затрат по сравнению с многоканальными сетями.

    Распределенный RAID

       ConnectX-4 Mellanox обеспечивает расширенную способность разгрузки кодов Erasure, позволяя создавать распределенный RAID (избыточный массив недорогих дисков), технологию хранения данных, которая объединяет несколько накопителей в логическую единицу с целью избыточности данных и повышения производительности. Функция Reed-Solomon семейства ConnectX-4 представляет избыточные блочные вычисления, которые вместе с RDMA, обеспечивает высокую производительность и надежный доступ к хранилищу.


    Передача подписи (Signature Handover)

       ConnectX-4 поддерживает аппаратную проверку информации о прохождении / защите данных T10 Data Tensity (T10-DIF / PI), уменьшая накладные расходы процессора и ускоряя доставку данных в приложение. Передача подписи обрабатывается адаптером на входных и / или выходных пакетах, уменьшая нагрузку на ЦП на машинах инициатора и / или целевых машинах.

    Virtual Protocol Interconnect (VPI)

       VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.

  • Connect-IB Mellanox 56G

    Адаптеры Mellanox InfiniBand FDR 56Gb/s серии Connect-IB

       Адаптеры Connect-IB компании Mellanox обеспечивают высокопроизводительное и масштабируемое межсоединение для серверов и систем хранения. Высокопроизводительные вычисления, Web 2.0, облачные приложения, большие данные, финансовые услуги, виртуализированные центры обработки данных и хранилища достигнут значительных улучшений производительности, что приведет к сокращению времени завершения и снижению стоимости за операцию.

    Адаптер Cinnect-IB Mellanox
    Производительность мирового класса

       Connect-IB обеспечивает максимальную пропускную способность, низкую задержку и эффективность вычислений для приложений, ориентированных на производительность. Максимальная пропускная способность предоставляется через PCI Express 3.0 x16 и два порта FDR InfiniBand, обеспечивая пропускную способность более 100 Гбит / с вместе с низкой задержкой во всех ядрах ЦП. Connect-IB также позволяет системам с PCI Express 2.0 x16 полностью использовать преимущества FDR, обеспечивая как минимум вдвое большую пропускную способность существующих решений PCIe 2.0.
       Connect-IB разгружает обработку протокола ЦП и перемещение данных от ЦП к каналу связи, максимизирует эффективность ЦП и ускоряет параллельную и интенсивную работу приложений. Connect-IB поддерживает новые операции с данными, включая непрерывную передачу памяти, которая устраняют ненужные операции копирования данных и накладные расходы ЦП (прямой доступ к памяти, DMA). Дополнительное ускорение приложений достигается с 4-процентным улучшением скорости передачи сообщений по сравнению с предыдущими поколениями адаптеров InfiniBand.

    Неограниченная масштабируемость

       Следующий уровень масштабируемости и производительности требует нового поколения ускорения данных и приложений. MellanoX Messaging (MXM) и коллективный ускоритель Fabric (FCA), использующий технологию CORE-Direct®, ускоряют обмен данными MPI и PGAS, в полной мере используя расширенные возможности Connect-IB. Кроме того, Connect-IB представляет инновационный транспортный сервис Dynamic Transport для обеспечения неограниченной масштабируемости для кластеризации серверов и систем хранения.

    Высокопроизводительные системы хранения

       Узлы хранения будут видеть улучшенную производительность с более высокой пропускной способностью FDR, а стандартные протоколы доступа к блокам и файлу могут использовать InfiniBand RDMA для повышения производительности. Connect-IB также поддерживает аппаратную проверку информации поля / защиты данных T10 (DIF / PI) и других типов сигнатур, уменьшая накладные расходы процессора и ускоряя данные в приложении. Трансляция подписи и передача обслуживания также выполняются адаптером, что еще больше снижает нагрузку на процессор. Консолидация вычислений и хранения через FDR InfiniBand с Connect-IB обеспечивает превосходную производительность при одновременном снижении затрат и сложностей центра обработки данных.

  • ConnectX-3 Pro VPI...

    Адаптеры Mellanox ConnectX-3 Pro VPI

       Карты адаптеров ConnectX-3 Pro с интерфейсом Virtual Protocol Interconnect (VPI), поддерживающие соединение InfiniBand и Ethernet с аппаратными устройствами разгрузки для Overlay Networks («Tunneling»), обеспечивают наиболее эффективное и гибкое решение для межсетевых соединений для серверов PCI Express Gen3, используемых в общественных и частные облака, корпоративные центры обработки данных и высокопроизводительные вычисления.

    Адаптер VPI Mellanox Connectx-3 Pro

    Преимущества Connetx-3 Pro VPI Mellanox

    • Один адаптер для FDR/QDR InfiniBand, 10/40 GbE
    • Коммутационные сети Ethernet и Data Center Bridging
    • Высочайшая производительность кластеров, сетей и систем хранения данных
    • Гарантированная пропускная способность и низкая задержка
    • Консолидация ввода-вывода
    • Ускорение виртуализации
    • Энергоэффективность
    • Масштабирование до десятков тысяч узлов

    Основные особенности Connetx-3 Pro VPI

    • Virtual Protocol Interconnect
    • Задержка MPI ping 1 мкс
    • До 56 Гбит/с InfiniBand или 40 Gigabit Ethernet на порт
    • Доступны одно- и двухпортовые конфигурации
    • PCI Express 3.0 (до 8 Гп/с)
    • Разгрузка передачи данных с процессора
    • Разгрузка приложений
    • Ускорение обмена данными с GPU
    • Точная синхронизация часов
    • Развертывание HW для инкапсулированного трафика NVGRE и VXLAN
    • Сквозное управление QoS и контроль перегрузок
    • Аппаратная виртуализация ввода-вывода
    • Инкапсуляция Fibre Channel (FCoIB или FCoE)
    • Инкапсуляция Ethernet (EoIB)
    • RoHS-R6

    Технологии, используемые в адаптерах Connectx-3 Pro VPI

    Технология NVGRE

       Для того, чтобы оверлейная сеть могла быть использована, требуется технология для инкапсуляции данных, чтобы она могла туннелировать на уровень 2 и переноситься на уровень 3. Одна из ведущих технологий, которая обеспечивает эту инкапсуляцию и направлена на решение как безопасности, так и масштабируемости. Проблема заключается в виртуализации сети с использованием универсальной инкапсуляции маршрутизации (NVGRE). Технология NVGRE обеспечивает решение для растяжения сети L2 через виртуальную сеть L3 IP.
       Концепция NVGRE основана на новой инкапсуляции для трафика виртуальной машины, в которой туннель создается для трафика виртуальной машины с использованием протокола маршрутизации GRE. Он инкапсулирует трафик Layer 2 (Ethernet) виртуальной машины с новыми заголовками MAC и IP и добавляет заголовок NVGRE, который включает сетевой идентификатор Tenant (TNI), 24-битный идентификатор, который радикально расширяет адресное пространство VLAN с 4094 сегментов до 16,7 миллионов доступных идентификаторов, что позволяет решить проблему масштабируемости.

    RDMA через конвергентный Ethernet

       ConnectX-3 Pro компании Mellanox, использующий технологию IBTA RoCE, обеспечивает аналогичные низкозатратные и высокопроизводительные сети Ethernet. Используя возможности моста для центров обработки данных, RoCE обеспечивает эффективные услуги RDMA с низкой задержкой по Ethernet уровня 2. Благодаря взаимодействию на уровне канала в существующей инфраструктуре Ethernet, сетевые администраторы могут использовать существующую структуру центра обработки данных

    Ускорение приложений через ускорение сокетов (Sockets Acceleration)

       Приложения, использующие транспорт TCP / UDP / IP, могут повысить произодительность благодаря InfiniBand или 10 или 40GbE. Аппаратные устройства разблокировки без учета состояния в ConnectX-3 Pro Mellanox уменьшают расходы процессора на передачу IP-пакетов. Программное обеспечение ускорения сокетов дополнительно увеличивает производительность для чувствительных к задержкам приложений.

    Виртуализация ввода-вывода

       Технология ConnectX-3 SR-IOV обеспечивает выделенные ресурсы адаптера и гарантированную изоляцию и защиту виртуальных машин (VM) внутри сервера. Виртуализация ввода-вывода с помощью ConnectX-3 Pro позволяет менеджерам центров обработки данных лучше использовать сервер, снижая затраты, мощность и сложность кабельного хозяйства.

    Virtual Protocol Interconnect (VPI)

       VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.

  • ConnectX-3 VPI...

    Адаптеры Mellanox ConnectX-3 VPI

       Адаптеры ConnectX-3 с поддержкой Virtual Protocol Interconnect (VPI), InfiniBand и Ethernet представляют собой  высокопроизводительные и гибкие коммутационные решения для серверов PCI Express Gen3. Они ориентированы на применение в корпоративных центрах обработки данных, суперкомпьютерах и встраиваемых средах.

    Адаптер Connectx-3 Mellanox

    Преимущества Connetx-3 VPI

    • Один адаптер для FDR/QDR InfiniBand, 10/40 GbE
    • Коммутационные сети Ethernet и Data Center Bridging
    • Высочайшая производительность кластеров, сетей и систем хранения данных
    • Гарантированная пропускная способность и низкая задержка
    • Консолидация ввода-вывода
    • Ускорение виртуализации
    • Энергоэффективность
    • Масштабирование до десятков тысяч узлов

    Основные особенности Connetx-3 VPI

    • Virtual Protocol Interconnect
    • Задержка MPI ping 1 мкс
    • До 56 Гбит/с InfiniBand или 40 Gigabit Ethernet на порт
    • Доступны одно- и двухпортовые конфигурации
    • PCI Express 3.0 (до 8 Гп/с)
    • Разгрузка передачи данных с процессора
    • Разгрузка приложений
    • Ускорение обмена данными с GPU
    • Точная синхронизация часов
    • Сквозное управление QoS и контроль перегрузок
    • Аппаратная виртуализация ввода-вывода
    • Инкапсуляция Fibre Channel (FCoIB или FCoE)
    • Инкапсуляция Ethernet (EoIB)
    • RoHS-R6

    Технологии, используемые в адаптерах Connectx-3 VPI

    RDMA через конвергентный Ethernet

       ConnectX-3, использующий технологию IBTA RoCE, обеспечивает аналогичные низкозатратные и высокопроизводительные сети Ethernet. Используя возможности моста для центров обработки данных, RoCE обеспечивает эффективные услуги RDMA с низкой задержкой по Ethernet уровня 2. Благодаря взаимодействию на уровне канала в существующей инфраструктуре Ethernet, сетевые администраторы могут использовать существующую структуру центра обработки данных

    Ускорение приложений через ускорение сокетов (Sockets Acceleration)

       Приложения, использующие транспорт TCP / UDP / IP, могут повысить произодительность благодаря InfiniBand или 10 или 40GbE. Аппаратные устройства разблокировки без учета состояния в ConnectX-3 уменьшают расходы процессора на передачу IP-пакетов. Программное обеспечение ускорения сокетов дополнительно увеличивает производительность для чувствительных к задержкам приложений.

    Виртуализация ввода-вывода

       Технология ConnectX-3 SR-IOV обеспечивает выделенные ресурсы адаптера и гарантированную изоляцию и защиту виртуальных машин (VM) внутри сервера. Виртуализация ввода-вывода с помощью ConnectX-3 позволяет менеджерам центров обработки данных лучше использовать сервер, снижая затраты, мощность и сложность кабельного хозяйства.

    Virtual Protocol Interconnect (VPI)

       VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.