Каталог
Загрузка ...
Адаптеры Mellanox InfiniBand серии Connectx обеспечивают повышенные уровни ИТ-производительности, эффективности и масштабируемости ИТ-центра.
Mellanox сохраняет свое лидерство, предоставляя адаптеры Host Link InfiniBand HCA) - самое высокопроизводительное решение для межсетевых соединений для ...
Адаптеры Mellanox InfiniBand серии Connectx обеспечивают повышенные уровни ИТ-производительности, эффективности и масштабируемости ИТ-центра.
Mellanox сохраняет свое лидерство, предоставляя адаптеры Host Link InfiniBand HCA) - самое высокопроизводительное решение для межсетевых соединений для корпоративных центров данных, WEB 2.0, облачных вычислений, высокопроизводительных вычислений и встроенных сред.
Для высокопроизводительных вычислений требуется высокая пропускная способность, низкая латентность (задержки передачи данных) и разгрузка процессора, чтобы получить максимальную эффективность сервера и производительность приложений. Mellanox HCAs обеспечивают максимальную пропускную способность и минимальную задержку любого стандартного межсоединения, что обеспечивает эффективность КПД более 95%.
Для центров обработки данных и облачных вычислений требуются услуги ввода-вывода, такие как пропускная способность, консолидация и унификация, а также гибкость. HCA от Mellanox поддерживают консолидацию трафика LAN и SAN и обеспечивают аппаратное ускорение для виртуализации серверов.
Гибкость виртуального протокола Interconnect® (VPI) обеспечивает соединение InfiniBand, Ethernet, мостовое соединение с данными, подключение EoIB, FCoIB и FCoE.
Подкатегории
ConnectX-6 является новаторским дополнением к ведущим в отрасли адаптерам Mellanox ConnectX. В дополнение ко всем существующим инновационным функциям прошлых версий ConnectX-6 предлагает ряд улучшений для дальнейшего повышения производительности и масштабируемости. ConnectX-6 VPI поддерживает скорости HDR, HDR100, EDR, FDR, QDR, DDR и SDR InfiniBand, а также скорости Ethernet 200, 100, 50, 40, 25 и 10 Гбит / с.
- Максимальная пропускная способность 200 Гбит / с
- До 200 миллионов сообщений в секунду
- Менее 0.6 мкс латентность
Аналитика данных стала важной функцией во многих корпоративных центрах обработки данных, облаках и платформах Hyperscale. Машинное обучение опирается на особенно высокую пропускную способность и низкую задержку для обучения глубоких нейронных сетей и для повышения точности распознавания и классификации. В качестве первой платы адаптера с пропускной способностью 200 Гбит / с ConnectX-6 является идеальным решением для приложений машинного обучения с требуемыми уровнями производительности и масштабируемости. ConnectX-6 использует технологию RDMA для обеспечения низкой латентности и высокой производительности. ConnectX-6 еще больше расширяет возможности RDMA-сети, обеспечивая сквозное управление потоком пакетов на уровне пакетов.
Virtual Protocol Interconnect (VPI)
VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.
Адаптеры Mellanox серии ConnectX-5 VPI поддерживает один или два порта со скоростью 100 Гбит/с по протоколу Ethernet или EDR Infiniband с латентностью менее 600 нс. Технология NVMe поверх Fabric обеспечивает максимальную производительность и наиболее гибкое решение для самых требовательных приложений и рынков.
ConnectX-5 компании Mellanox обеспечивает высокую пропускную способность, низкую задержку и высокую эффективность вычислений для высокопроизводительных, масштабируемых платформ вычисления и хранения. ConnectX-5 предлагает усовершенствования инфраструктуры HPC, предоставляя разгрузку MPI и SHMEM / PGAS и Rendezvous Tag Matching, аппаратную поддержку для операций записи и чтения RDMA не по порядку, а также дополнительную поддержку Atom Atomic и PCIe Atomic.
ConnectX-5 VPI использует технологии IBTA RDMA (Remote Data Memory Access) и RoCE (RDMA over Converged Ethernet), обеспечивая низкую латентностью и высокую производительность. ConnectX-5 расширяет возможности сети RDMA, дополняя возможности коммутации адаптивной маршрутизации и поддерживая данные, поставляемые вне порядка, сохраняя при этом упорядоченную семантику завершения, обеспечивая многолучевую надежность и эффективную поддержку для всех сетевых топологий, включая DragonFly и DragonFly +. ConnectX-5 также поддерживает разгрузку буфера для фоновой контрольной точки без вмешательства в основные операции ЦП и инновационный транспортный сервис Dynamic Connected Transport (DCT) для обеспечения максимальной масштабируемости для вычислительных и запоминающих систем.
Накопители NVMe набирают популярность, предлагая очень быстрый доступ к хранилищу. Развивающийся протокол NVMe over Fabric (NVMf) использует возможности RDMA для удаленного доступа. ConnectX-5 предлагает дополнительные улучшения, предоставляя целевые разгрузки NVMf, обеспечивая очень эффективный доступ к хранилищу NVMe без вмешательства ЦП, таким образом, увеличивая производительность и уменьшая задержку.
Кроме того, встроенный переключатель PCIe позволяет клиентам создавать автономные устройства хранения данных или устройства для машинного обучения. Как и в предыдущих поколениях адаптеров ConnectX, стандартные протоколы доступа к блокам и файлу могут использовать RoCE для высокопроизводительного доступа к хранилищу. Консолидированная сеть вычислений и хранения достигает значительных преимуществ по сравнению с традиционными разделенными сетями.
Технология ConnectX-5 Accelerated Switching and Packet Processing (ASAP2 ™) улучшает разгрузку виртуальных коммутаторов, например Open V-Switch (OVS), что приводит к значительно более высокой производительности передачи данных без перегрузки CPU. Вместе с поддержкой RDMA и RoCE, ConnectX-5 значительно улучшает эффективность платформы Cloud и NFV.
Virtual Protocol Interconnect (VPI)
VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.
Адаптеры серии ConnectX-4 с технологией Virtual Protocol Interconnect (VPI) поддерживают скорость передачи данных EDR 100Gb/s InfiniBand и 100Gb/s Ethernet.
Стремительный рост объема хранимых и обрабатываемых данных сформировал новые требования к высокоскоростным и высокопроизводительным вычислительным центры и центрам хранения данных. ConnectX-4 обеспечивает исключительно высокую производительность для центров обработки данных, публичных и частных облаков, Web2.0 и обработки больших данных (Big Data).
ConnectX-4 компании Mellanox представляет самый высокопроизводительный адаптер VPI, поддерживающий EDR 100Gb / s InfiniBand и 100Gb / s Ethernet и позволяющий любым стандартным сетям, кластерам или хранилищу бесшовно работать по любой конвергентной сети, используя консолидированный стек программного обеспечения.
Технология ConnectX-4 SR-IOV обеспечивает выделенные ресурсы адаптера и гарантированную изоляцию и защиту виртуальных машин (виртуальных машин) на сервере. Виртуализация ввода-вывода с помощью ConnectX-4 позволяет администраторам центров обработки данных лучше использовать сервер, снижая затраты, мощность и сложность кабельного хозяйства, предоставляя больше виртуальных машин и больше арендаторов на одном и том же оборудовании.
Чтобы лучше масштабировать свои сети, операторы центров обработки данных часто создают оверлейные сети, которые переносят трафик с отдельных виртуальных машин по логическим туннелям в инкапсулированные форматы, такие как NVGRE и VXLAN. Хотя это решает проблемы масштабируемости сети, он скрывает TCP-пакет от аппаратных выгружающих устройств, повышая нагрузку на центральный процессор. ConnectX-4 эффективно устраняет это, предоставляя усовершенствованные устройства для разгрузки аппаратных средств NVGRE и VXLAN, которые инкапсулируют и дезакулируют заголовки протоколов оверлей, позволяя выполнять традиционные разгрузки по инкапсулированному трафику. С помощью ConnectX-4 операторы ЦОД могут достичь собственной производительности в новой сетевой архитектуре.
Mellanox ConnectX-4 EN использует ряд новых технологий, позволяющих повысить производительность и получить новые возможности не только адаптера, но и сети в целом.
Mellanox ConnectX-4 EN предлагает технологию ускоренного переключения и обработки пакетов (ASAP2) для выполнения операций разгрузки в гипервизоре, включая путь передачи данных, парсинг пакетов, инкапсуляцию / декапсуляцию VxLAN и NVGRE и т. Д.
ASAP2 позволяет разгружать, обрабатывая плоскость данных в аппаратном обеспечении NIC с помощью SR-IOV, при этом поддерживая плоскость управления, используемую в современных программных решениях без изменений. В результате достигается значительно более высокая производительность без соответствующей загрузки ЦП. ASAP2 имеет два формата: ASAP2 Flex ™ и ASAP2 Direct ™. Одним из примеров виртуального коммутатора, который ASAP2 может разгрузить, является OpenVSwitch (OVS).
ConnectX-4, используя технологию IBTA RDMA (Remote Data Memory Access) и RoCE (RDMA over Converged Ethernet), обеспечивает низкую задержку и высокую производительность по сетям InfiniBand и Ethernet. Используя возможности мостового соединения центра обработки данных (DCB), а также усовершенствованные аппаратные средства управления перегрузкой ConnectX-4, RoCE обеспечивает эффективные услуги RDMA с низкой задержкой в сетях уровня 2 и уровня 3.
Связь PeerDirect обеспечивает высокоэффективный доступ к RDMA, устраняя ненужные внутренние копии данных между компонентами шины PCIe (например, от GPU до CPU) и, следовательно, значительно сокращает применение
время выполнения. Технология расширенного ускорения ConnectX-4 позволяет повысить эффективность и масштабируемость кластера до десятков тысяч узлов.
Приложения хранения данных улучшат производительность при использовании EDR с более высокой пропускной способностью. Более того, стандартные протоколы доступа к блокам и файлу могут использовать RoCE и InfiniBand RDMA для высокопроизводительного доступа к хранилищу. Консолидированная сеть вычислений и хранения обеспечивает значительные преимущества в отношении затрат по сравнению с многоканальными сетями.
ConnectX-4 Mellanox обеспечивает расширенную способность разгрузки кодов Erasure, позволяя создавать распределенный RAID (избыточный массив недорогих дисков), технологию хранения данных, которая объединяет несколько накопителей в логическую единицу с целью избыточности данных и повышения производительности. Функция Reed-Solomon семейства ConnectX-4 представляет избыточные блочные вычисления, которые вместе с RDMA, обеспечивает высокую производительность и надежный доступ к хранилищу.
ConnectX-4 поддерживает аппаратную проверку информации о прохождении / защите данных T10 Data Tensity (T10-DIF / PI), уменьшая накладные расходы процессора и ускоряя доставку данных в приложение. Передача подписи обрабатывается адаптером на входных и / или выходных пакетах, уменьшая нагрузку на ЦП на машинах инициатора и / или целевых машинах.
Virtual Protocol Interconnect (VPI)
VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.
Адаптеры Connect-IB компании Mellanox обеспечивают высокопроизводительное и масштабируемое межсоединение для серверов и систем хранения. Высокопроизводительные вычисления, Web 2.0, облачные приложения, большие данные, финансовые услуги, виртуализированные центры обработки данных и хранилища достигнут значительных улучшений производительности, что приведет к сокращению времени завершения и снижению стоимости за операцию.
Connect-IB обеспечивает максимальную пропускную способность, низкую задержку и эффективность вычислений для приложений, ориентированных на производительность. Максимальная пропускная способность предоставляется через PCI Express 3.0 x16 и два порта FDR InfiniBand, обеспечивая пропускную способность более 100 Гбит / с вместе с низкой задержкой во всех ядрах ЦП. Connect-IB также позволяет системам с PCI Express 2.0 x16 полностью использовать преимущества FDR, обеспечивая как минимум вдвое большую пропускную способность существующих решений PCIe 2.0.
Connect-IB разгружает обработку протокола ЦП и перемещение данных от ЦП к каналу связи, максимизирует эффективность ЦП и ускоряет параллельную и интенсивную работу приложений. Connect-IB поддерживает новые операции с данными, включая непрерывную передачу памяти, которая устраняют ненужные операции копирования данных и накладные расходы ЦП (прямой доступ к памяти, DMA). Дополнительное ускорение приложений достигается с 4-процентным улучшением скорости передачи сообщений по сравнению с предыдущими поколениями адаптеров InfiniBand.
Следующий уровень масштабируемости и производительности требует нового поколения ускорения данных и приложений. MellanoX Messaging (MXM) и коллективный ускоритель Fabric (FCA), использующий технологию CORE-Direct®, ускоряют обмен данными MPI и PGAS, в полной мере используя расширенные возможности Connect-IB. Кроме того, Connect-IB представляет инновационный транспортный сервис Dynamic Transport для обеспечения неограниченной масштабируемости для кластеризации серверов и систем хранения.
Узлы хранения будут видеть улучшенную производительность с более высокой пропускной способностью FDR, а стандартные протоколы доступа к блокам и файлу могут использовать InfiniBand RDMA для повышения производительности. Connect-IB также поддерживает аппаратную проверку информации поля / защиты данных T10 (DIF / PI) и других типов сигнатур, уменьшая накладные расходы процессора и ускоряя данные в приложении. Трансляция подписи и передача обслуживания также выполняются адаптером, что еще больше снижает нагрузку на процессор. Консолидация вычислений и хранения через FDR InfiniBand с Connect-IB обеспечивает превосходную производительность при одновременном снижении затрат и сложностей центра обработки данных.
Карты адаптеров ConnectX-3 Pro с интерфейсом Virtual Protocol Interconnect (VPI), поддерживающие соединение InfiniBand и Ethernet с аппаратными устройствами разгрузки для Overlay Networks («Tunneling»), обеспечивают наиболее эффективное и гибкое решение для межсетевых соединений для серверов PCI Express Gen3, используемых в общественных и частные облака, корпоративные центры обработки данных и высокопроизводительные вычисления.
Для того, чтобы оверлейная сеть могла быть использована, требуется технология для инкапсуляции данных, чтобы она могла туннелировать на уровень 2 и переноситься на уровень 3. Одна из ведущих технологий, которая обеспечивает эту инкапсуляцию и направлена на решение как безопасности, так и масштабируемости. Проблема заключается в виртуализации сети с использованием универсальной инкапсуляции маршрутизации (NVGRE). Технология NVGRE обеспечивает решение для растяжения сети L2 через виртуальную сеть L3 IP.
Концепция NVGRE основана на новой инкапсуляции для трафика виртуальной машины, в которой туннель создается для трафика виртуальной машины с использованием протокола маршрутизации GRE. Он инкапсулирует трафик Layer 2 (Ethernet) виртуальной машины с новыми заголовками MAC и IP и добавляет заголовок NVGRE, который включает сетевой идентификатор Tenant (TNI), 24-битный идентификатор, который радикально расширяет адресное пространство VLAN с 4094 сегментов до 16,7 миллионов доступных идентификаторов, что позволяет решить проблему масштабируемости.
ConnectX-3 Pro компании Mellanox, использующий технологию IBTA RoCE, обеспечивает аналогичные низкозатратные и высокопроизводительные сети Ethernet. Используя возможности моста для центров обработки данных, RoCE обеспечивает эффективные услуги RDMA с низкой задержкой по Ethernet уровня 2. Благодаря взаимодействию на уровне канала в существующей инфраструктуре Ethernet, сетевые администраторы могут использовать существующую структуру центра обработки данных
Приложения, использующие транспорт TCP / UDP / IP, могут повысить произодительность благодаря InfiniBand или 10 или 40GbE. Аппаратные устройства разблокировки без учета состояния в ConnectX-3 Pro Mellanox уменьшают расходы процессора на передачу IP-пакетов. Программное обеспечение ускорения сокетов дополнительно увеличивает производительность для чувствительных к задержкам приложений.
Технология ConnectX-3 SR-IOV обеспечивает выделенные ресурсы адаптера и гарантированную изоляцию и защиту виртуальных машин (VM) внутри сервера. Виртуализация ввода-вывода с помощью ConnectX-3 Pro позволяет менеджерам центров обработки данных лучше использовать сервер, снижая затраты, мощность и сложность кабельного хозяйства.
VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.
Адаптеры ConnectX-3 с поддержкой Virtual Protocol Interconnect (VPI), InfiniBand и Ethernet представляют собой высокопроизводительные и гибкие коммутационные решения для серверов PCI Express Gen3. Они ориентированы на применение в корпоративных центрах обработки данных, суперкомпьютерах и встраиваемых средах.
ConnectX-3, использующий технологию IBTA RoCE, обеспечивает аналогичные низкозатратные и высокопроизводительные сети Ethernet. Используя возможности моста для центров обработки данных, RoCE обеспечивает эффективные услуги RDMA с низкой задержкой по Ethernet уровня 2. Благодаря взаимодействию на уровне канала в существующей инфраструктуре Ethernet, сетевые администраторы могут использовать существующую структуру центра обработки данных
Приложения, использующие транспорт TCP / UDP / IP, могут повысить произодительность благодаря InfiniBand или 10 или 40GbE. Аппаратные устройства разблокировки без учета состояния в ConnectX-3 уменьшают расходы процессора на передачу IP-пакетов. Программное обеспечение ускорения сокетов дополнительно увеличивает производительность для чувствительных к задержкам приложений.
Технология ConnectX-3 SR-IOV обеспечивает выделенные ресурсы адаптера и гарантированную изоляцию и защиту виртуальных машин (VM) внутри сервера. Виртуализация ввода-вывода с помощью ConnectX-3 позволяет менеджерам центров обработки данных лучше использовать сервер, снижая затраты, мощность и сложность кабельного хозяйства.
VPI позволяет использовать один и тот же адаптер как в сети передачи данных Infiniband, так и Ethernet. Гибкость виртуального протокола (VPI) позволяет любому стандарту сетевого, кластерного, хранилища и протокола управления беспрепятственно управлять любой конвергентной сетью, используя консолидированный стек программного обеспечения. VPI упрощает проектирование системы ввода / вывода и упрощает ИТ-менеджерам развертывание инфраструктуры, которая отвечает задачам динамического центра обработки данных.