Вычислительная система Cisco UCS: развитие и новые...
-
Upload
cisco-russia -
Category
Technology
-
view
299 -
download
6
Transcript of Вычислительная система Cisco UCS: развитие и новые...
Вычислительная система Cisco UCS: развитие и новые возможности
Максим Хаванкин cистемный архитектор [email protected]
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved.
Содержание
• Архитектура UCS • Что нового в серверном портфеле
• Новые процессоры и модули DIMM • Что нового в фабрике
• Технология usNIC • Новости программного обеспечения UCS Manager • Новости ПО управления
• UCS Central • UCS Director
• Поддержка GPU NVidia в UCS
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 2
Архитектура UCS
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 3
Cisco UCS – интегрированная система «by design»
• В Cisco UCS архитектурно интегрированы и неотделимы друг от друга:
– Вычислительные мощности, – Единая сетевая инфраструктура – Управление системой как единым целым
• Нет понятия «настройка сервера» - есть настройка фермы
• Управление конфигурацией физического сервера на основе моделей и политик – полная абстракция от оборудования , сервер – всего лишь ресурс
• Нет понятия «настройка коммутаторов» – фабрика одна (резервированная) с прямым подключением серверов и виртуальных машин, и настраивается автоматически
Архитектура UCS
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 5
Mgmt Server Mgmt Server Встраиваем управление Используем универсальный транспорт для всего IO
Устраняем уровень коммутации в шасси – «виртуальная линейная карта» для подключения серверов
Устраняем коммутацию на уровне гипервизора - «виртуальная линейная карта» внутри сервера для подключения VM
Mgmt
UCS: eдиная универсальная сетевая инфраструктура с единым управлением, общими политиками
Серверная система UCS. Унифицированная фабрика
Единый универсальный транспорт для реализации подключений серверов (управление + LAN + SAN) Сервер видит ровно столько и таких адаптеров, как требуется в данный момент Единая фабрика на всю систему – один хоп коммутации между любыми из сотен физических и тысяч виртуальных серверов Гибкое разделение полосы пропускания между разными типами трафика Сквозная поддержка QoS на всем физическом пути пакета
Что нового в серверном портфеле
Новые процессоры и модули DIMM
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 7
Поддержка процессоров E5-2600 v2 в UCS
• В сентябре 2013 года стали доступны новые конфигурации всех M3 (EP и EN) UCS серверов
• Для заказа стали доступны процессоры E5-2600 v2 и модули 1866-МГц DIMM
• Никаких изменений в аппаратной платформе в результате начала поддержки процессоров E5-v2
• Требуется обновление Firmware / BIOS / CIMC / UCSM
• Улучшенная производительность с новыми процессорами и модулями памяти
• M3 серверы были спроектированы для поддержки архитектуры E5-2600 v2 с самого начала
• Производительность, питание, механический и термальный дизайн серверов M3 серии был оптимизирован для E5-2600 v2
Производительность процессоров E5-2600 2-го поколения За счет чего увеличивается производительность?
• Больше количество ядер на E5-2697 v2 12 ядер на E5-2697 v2 против 8 ядер на E5-2690
• Более быстрые ядра на E5-2643 v2 Базовая скорость E5-2643 v2 - 3.5 ГГц против 2.9 ГГц у E5-2690
• Быстрая память Процессоры E5-2600 v2 способны обеспечивать работу памяти на скорости 1866 МГц против 1600 МГц у E5-2690
• Более низкое энергопотребление Топовый процессор Ivy Bridge – 130 Вт, E5-2690 – 135 Вт
Архитектура памяти B200 M3 (и C240 M3)
• 24 DIMM слота
• До 3-х DIMM на канал (DPC)
• Минимум 1 DIMM на процессор (2 DIMM на сервер)
• 1866-МГц DIMM только с E5-2600 v2 (Ivy Bridge) – 1866 до 2 DPC
• Более 2-х DPC (более 16 DIMM модулей) скорость падает до 1333-МГц
• 768 ГБ максимальный объем при помощи 32 ГБ LRDIMM
Особенности работы ОЗУ в E5-2600 v2
Поддержка скорости работы 1866 МГц Модули 16 ГБ и 8 ГБ уже поддерживают Поддержка для модулей 32 ГБ ожидается в конце 2013 года
Поддержка скорости 1600 МГц обеспечивается для E5-2600 и для E5-2600 v2
Модули 32 ГБ, 16 ГБ и 8 ГБ поддерживаются для E5-2600 v2 (Ivy Bridge) Для серверов C240/C220 M3, будут предлагаться модули 4 ГБ (для серверов
B200 M3 поддержки этих модулей не планируется)
1333 МГц модули снимаются с производства Новые E5-2600 v2 не комплектуются модулями 1333 МГц Существующие сервера с процессорами E5-2600 с модулями 1333-МГц также поддерживают процессоры E5-2600 v2
Что нового в фабрике
Технология usNIC
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 12
LAN
Традиционная сеть
Ethernet FC
Ethernet FC FC
Унифицированная фабрика
LAN
Ethernet FC
DCB и FCoE
Кластер
Infiniband
Кластер
Infiniband
Развитие унифицированной фабрики в UCS Консолидация сетей с низкой задержкой передачи данных
LAN
Традиционная сеть
Ethernet FC
Ethernet FC FC
Унифицированная фабрика
LAN
Ethernet FC
Кластер
Infiniband DCB, FCoE и низкая задержка
Развитие унифицированной фабрики в UCS Консолидация сетей с низкой задержкой передачи данных
Новая технология - User Space NIC (usNIC) Технология передачи данных напрямую между приложениями для низкой задержки
Что это?
Технология передачи данных с низкой задержкой на базе адаптеров VIC 1200
Причина появления технологии
Рост числа кластеризованных приложений
Сквозная архитектура обеспечения низкой задержки от Cisco
Время доступности
C- серия VIC 1225 или 1225T начиная с релиза 1.5(2) 10 Гбит/сек: Nexus N3548, N5K, N6K
40 Гбит/сек: следите за обновлениями
B-серия – в ближайших планах
Факторы, влияющие на задержку (в мксек)
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 16
Задержка между приложениями
Приложение
Middle ware/Open MPI
Ядро
Сетевая карта
Сервер
Middle Ware, 1, 6%
Kernel/OS, 2, 12%
NIC, 9, 53%
Network, 5, 29%
Всего: 17 мксек
Факторы, влияющие на сквозную задержку
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 17
Сеть передачи данных
Network: ~5usec per hop
App to App Latency Components
CISCO ALGORITHM BOOST TECHNOLOGY
Улучшение задержки более чем на 4 мксек
Middle Ware, 1, 6%
Kernel/OS, 2, 12%
NIC, 9, 53%
Network, 5, 29%
Всего: 17 мксек
Факторы, влияющие на сквозную задержку
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 18
Сеть передачи данных
Network: ~5usec per hop
App to App Latency Components
Всего: 12.5 мксек
Улучшение задержки более чем на 4 мксек
CISCO ALGORITHM BOOST TECHNOLOGY
Middle Ware, 1, 6%
Kernel/OS, 2, 12%
NIC, 9, 53%
Network, 0.25, 1%
Optimized, 4.75, 28%
Факторы, влияющие на сквозную задержку
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 19
Сетевой адаптер
App to App Latency Components
Улучшение задержки более чем на 4 мксек
Middle Ware, 1, 6%
Kernel/OS, 2, 12%
NIC, 9, 53%
Network, 0.25, 1%
Optimized, 4.75, 28%
Всего: 12.5 мксек
Факторы, влияющие на сквозную задержку
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 20
Сетевой адаптер
App to App Latency Components
Улучшение задержки примерно на 15 мксек
Всего: 2.45 мксек
Middle Ware, 0.5,
3% Kernel/OS,
0, 0% NIC, 1.7,
10%
Network, 0.25, 1%
Optimized, 14.55, 86%
Ядро
Cisco VIC адаптер
TCP / IP стек
Cisco VIC драйвер
Пользовательские приложения (userspace) Userspace sockets library
Приложение
Обычный программный стек TCP
Ядро
Userspace verbs библиотека
Cisco VIC адаптер
MPI библиотека
Ядро Verbs IB
Cisco USNIC драйвер
Запуск и настройка Быстрый путь
передачи данных
Приложение
Программный стек usNIC
Пользовательские приложения (userspace)
Специфика 1го поколения
На базе UD Verbs (ненадежные дейтаграммы, аналогично UDP)
Поддержка OS Bypass, низкая задержка
Существующие MPI приложения мигрируют прозрачно
Приложения написанные с использованием «native verbs API» необходимо изменять >>>>>MPI приложения
Userspace verbs библиотека
Cisco VIC адаптер
MPI библиотека
Ядро Verbs IB
Cisco USNIC драйвер
Приложение
Особенности реализации usNIC
Новости программного обеспечения UCS Manager 2.1(2)
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 24
Новые функции версии 2.1(2)
• Поддержка Windows 2012 NPIV • Поддержка одного iQN для загрузки по iSCSI • Улучшенный fNIC драйвер для ESX/Linux • Поддержка загрузки с SD карты • Поддержка Transportable Flash Module (TFM)
• Улучшенное управление KVM сессиями • Fabric Interconnect HA Firmware Auto Sync • Поддержка вложенных LDAP групп • Оптимизация VIC PXE Boot • Оптимизация размера экрана UCSM • Blade Health LED Monitoring • M3 Board Programmables Firmware Update • C22 3.5”, C24 2.5”, C24 3.5”, and C240 NEBS refresh
• Глобальные Сервисные Профили • Global Domain Specific Identifiers • Enhanced Inventory of UCS • Глобализация/Локализация политик
Улучшения в сфере СХД
Улучшения в сфере удобств эксплуатации
Поддержка UCS Central 1.1
UCS Manager 2.1(2) Software
• Требования: UCSM 2.1(2) Windows fNIC драйвер UCSM 2.1(2) VIC Firmware Image UCSM 2.1(2) на Fabric Interconnect/IOM Hyper-V 2012 и Windows 2012 гостевая ОС
• Не является функцией обхода гипервизора (Hypervisor bypass)
• Нет интеграции с UCSM, весь функционал внутри fNIC драйвера
• Не поддерживается UCSM FC Zoning Функция создания зон в UCSM не детектирует эти HBA
Будет исправлено в следующих версиях UCSM
• Виртуальные машины, запущенные на сервере, могут разделять один адаптер и иметь независимый доступ к своим изолированным LUN
Преимущества для Заказчиков
Технические детали
Поддержка Windows 2012 NPIV
• В предыдущих релизах при создании двух iSCSI адаптеров создавалось два iQN на один сервисный профиль
• Соответствует принятому в индустрии подходу – один iQN на один хост
• Снижение нагрузки на администраторов в случае использования одного iQN
• Упрощение конфигурации массива
• Один iQN на сервисный профиль даже в случае двух iSCSI адаптеров
• Соответствие лучшим индустриальным практикам для загрузки по iSCSI
Преимущества для Заказчика
Технические детали
Один iQN для загрузки по iSCSI
• Поддержка M3 блейдов (B200 M3, B420 M3 и B22 M3) • Первоначально 1 SD карта (любой слот) • Ручной выбор в BIOS (кнопка F2)
В UCSM как источник загрузки не поддерживается в фазе 1
Возможность ручной загрузки с SD карты (обычно для ESXi), отпадает необходимость в локальных HDD
Преимущества для Заказчиков
Фаза 1 – технические детали
UCS M3 блейд сервер
Cisco UCS поддерживает 16 ГБ SD карту
Фаза 2 (планируется в конце 2013 года) • UCS Manager распознает карты • Поддержка 2-х SD карт и зеркалирования между
ними • Возможность выбрать SD карту как устройство
загрузки в сервисном профиле
Технология FlexFlash - поддержка SD карт: фаза 1
Что нового в UCS Central?
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 29
Система управления UCS Central
Одна консоль
Много UCS доменов
UCS Central: централизованное управление UCS доменами
UCS Central – доменные группы (domain groups)
UCSM 1
UCSM 7
UCSM 2
UCSM 3
UCSM 6
UCSM 5
Domain Group 1 Domain
Group 2 Domain Group 3
UCS Central
• Доменная группа - Domain Group (DG) – это произвольный набор UCS доменов
• UCS домен может быть частью только одной группы в один момент времени
• Политики, определяемые для DG действуют на всех участников DG
• Домены UCSM можно перемещать между DG
Новые функции UCS Central 1.1
Глобальные политики, сервисные профили и шаблоны Глобализация и локализация политик Использование псевдонимов (aliasing) для VLAN Поддержка оргструктуры для maintenance policies глобальных сервисных профилей
Агрегация статистики Централизованный XML API Поддержка High Availability для виртуальной машины UCS Central Поддержка SNMP Лицензирование
Обновления UCS Manager 2.1(2), связанные с поддержкой UCS Central 1.1
• Глобальные сервисные профили Сервисные профили определяются в UCS Central Они ассоциируются с сервером локального домена UCS Manager кеширует в режиме “только-чтение” глобальные политики
• Глобализация локальных политик Локальные политики можно превратить в глобальные и «имортировать» в
UCS Central Такие политики затем могут использоваться в других доменах
• Локализация глобальных политик Глобальные политики могут быть локализованы внутри UCS домена После локализации в такой политике можно делать изменения
Глобальные сервисные профили и шаблоны UCS Domain 1
UCS Domain 2
UCS Domain 3
Global Service Profile Template HR-Apps Network: HR-VLAN
Network QoS: High
BIOS: Version 1.03
Boot Order: SAN, LAN
Global Service Profile HR-App1 Network: HR-VLAN Network QoS: High MAC: 67:6f:74:75:63:73:21:20 WWN: 00:05:9b:67:6f:75:63:70 BIOS: Version 1.03 Boot Order: SAN, LAN
Global Service Profile HR-App2 Network: HR-VLAN Network QoS: High MAC: 67:6f:74:75:63:73:21:21 WWN: 00:05:9b:67:6f:75:63:72 BIOS: Version 1.03 Boot Order: SAN, LAN
Global Service Profile HR-App3 Network: HR-VLAN Network QoS: High MAC: 67:6f:74:75:63:73:21:23 WWN: 00:05:9b:67:6f:75:63:73 BIOS: Version 1.03 Boot Order: SAN, LAN
• Глобальные шаблоны определяются в UCS Central
• Глобальные шаблоны используют глобальные политики
• Глобальные сервисные профили получаются из глобальных шаблонов
• Глобальные сервисные профили могут использовать глобальные серверные пулы и глобальные пулы идентификаторов
• Глобальные серверные пулы могут включать в себя сервера из нескольких доменов
• Глобальные сервисные профили могут назначаться вручную, а могут автоматически ассоциироваться с серверным пулом
Domain Group C VLAN ID C
Использование псевдонимов для VLAN
Один псевдоним VLAN используется в настройке глобального профиля и ссылается на разные номера VLAN в разных доменных группах
• Например HR VLAN отображается в VLAN = 65 в доменной группе, которая находится в основном ЦОД, и в VLAN = 66 в резервном ЦОД
Global Service Profile VLAN Alias
Domain Group B VLAN ID B
Domain Group A VLAN ID A
Агрегация статистики
UCS Central
Ограниченные возможности по накоплению статистики на Fabric Interconnect
Внешняя БД Oracle, PostgreSQL
Ограниченное число отчетов
Внешняя система отчетов
SQL
• UCS Manager собирает большое количество статистики (сеть, питание, температура)
• UCS Central может хранить данные гораздо дольше по сравнению с UCS Manager
• Хранимые данные можно использовать для анализа • Хранение во внешней БД – доступность для
аналитического ПО 3-х производителей
Централизация XML API
• Единый XML API для UCS Central и UCS Manager
• Вызовы и к UCS Central и к UCS Manager поддерживаются единым UCS Central XML API
• Команды, которые поддерживаются только UCS Manager так же могут быть отправлены в сторону UCS Central XML API, далее они адресуются соответствующему UCS Manager
• Существующие скрипты, используемые с UCS Manager могут использоваться с UCS Central XML API
UCS Central
UCS Central API
UCS Manager UCS Manager
UCS Manager
UC
S
Cen
tral
AP
I Cal
ls
UC
S
Man
ager
A
PI C
alls
Что нового в UCS Director?
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 38
Cisco UCS Director - cистема управления комплексной «конвергентной инфраструктурой» Единое средство управления «конвергентной инфраструктурой»
Серверные ресурсы Сетевая инфраструктура Системы хранения данных Системы виртуализации
Богатый функционал Контроль и управление Оркестратор Портал самообслуживания IaaS на основе политик
Быстрый запуск «из коробки» Продукт, готовый к работе практически сразу Не требует сложного длительного внедрения
Виртуализация (VMware, MS, KVM)
Серверы (Cisco и др)
Сети LAN и SAN (Cisco и др)
Системы хранения данных (EMC, NetApp)
Архитектура UCS Director
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 40
Self Service Catalog
Cloupia Unified Infrastructure Controller Mul5-‐tenant & integrated cloud pla9orm
Admin Console Dashboard
Виртуальная среда
Amazon, Rackspace, …
VMware
Hyper-‐V
vCenter SCVMM
Enterprise Systems
Integration
IT Admins
End Users
IT Opera5ons LDAP, CMDB,
Metering DB
Blade Server Managers
Network Manager
Storage APIs
• Модульная система • Открыта для интеграции • Устанавливается как appliance
Cisco UCS Director
Integrated Multi-tenant Cloud Platform Cloupia Network Services
Agent
Cloupia Network
Services Agent Network Services
Agent
KVM
Savvis VPDC, Terremark, …
Other Providers
Физическая среда «Облака»
Provider API
Mobile Devices
Roll-‐based Access
RHEVM
Other Other
Поддерживаемые конвергентные решения
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 41
NetApp Storage
Virtualization (VMware/Hyper-V/KVM)
Cisco Nexus
Compute (UCS)
FlexPod
EMC Storage
Virtualization (VMware/Hyper-V)
Cisco Nexus/MDS
Compute (UCS)
VSPEX
Системы хранения
Сеть
Другие комбинации
Виртуализация
Полная поддержка FlexPod, VSPEX и всех VBlock
EMC Storage
Virtualization (VMware)
Cisco Nexus/MDS
Compute (UCS)
Vblock
Серверы
Поддержка CХД Hitachi – в следующих релизах
UCS Director 4.0 – новые функции
Категория Описание Конвергент.
стеки Vblock (200,300 – VNX), Vblock (700, 720 - VMAX), VSPEX 125,250 (VNX), FlexPOD N7K/Clustered Data OnTap ,
Вычислит. система
UCSM 2.1 новые функции, C-Series standalone - улучшения
СХД VNX File,Block, Unified версии 5100,5300,5500,7500 Series , VMAX 10K,20K,40K, NetApp OnTap 8.2 совместимость
Сеть Коммутаторы Nexus 1000v (VXLAN), Nexus 7K, MDS 9000 Series Director & Fabric, ASA 55xx Series
Гипервизоры Microsoft Hyper-V (2012) обновления, VMWare ESXi обновления Multi Vendor HP – Ilo3/ilo4 Экосистема Northbound REST Based API (JSON, XML) и Open Automation SDK
доступны в режиме EFT (Early Field Trial)
Поддержка системы UCS
• UCS Manager 2.1 MR1 • Доступ к KVM консолям – B-Series и C-Series (для подключенных к FI) • Режимы работы Fabric Interconnect
• Ethernet Switch / End Host • FC Switch / End Host
• Поддержка шаблонов vNIC • SAN Connectivity Policy • VLAN Grouping • Maintenance Mode • Zoning на базе Fabric Interconnect
• Управление серверами C-Series – CIMC -1.5 ( XML интерфейс) • Поддержка HP (ILO2,ILO3(new) и ILO4(new))
Что появилось нового в релизе UCS Director 4.0
Cisco UCS Director и Nexus 1000V (1 из 2)
Nexus 1000V VEM
Nexus 1000V VEM
VM VM VM VM VM VM VM VM
vCenter Server Nexus 1000V VSM
Server Server
VMware VMware
VMware vSphere
UCS Director SSH
CNSA
• Установка ESXi • Загрузка и установка VEM модулей при помощи UCS Director
• Настройка Port-Profiles, VLAN, ACL, VXLAN
Cisco UCS Director и Nexus 1000V (2 из 2)
N1K S/W Version – 4.2(1)SV2(1.1a) Inventory, Discovery and Reports
• Управление пулами VLAN и VXLAN • Распознавание Port-Profiles, VLAN,
VXLAN Layer2 конфигурация
• VLAN (Private, Community & Isolate), Trunk
• Управление Port-Channel • Создание, Обновление и Добавление портов
• Управление Port-Profiles • Создание, обновление Port-profiles
Безопасность • Управление ACL( Добавление/Удаление)
• Настройка VXLAN • Unicast Mode
• Multicast Mode
• Интеграция с VNMC (VNMC API) (Beta Build)
• Регистрация VSG на VNMC • Развертывание VSG OVF
• Регистрация VSG на N1K
• СозданиеTenants, Zones, security-profiles
• Интеграция с Fence Container
Поддержка GPU NVidia в UCS
Поддержка адаптеров K1 и K2 в серверах Cisco UCS C-серии
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved. 46
Разработчики Графические и медиа профессионалы, Инженеры-разработчики
CATIA, CS6, Inventor
POWER USER PLM, Solidworks,
Adobe Dreamweaver, ПО по обработке мед.
изображений
Финансовые аналитики, трейдеры и т.д.
KNOWLEDGE WORKER Офисные сотрудники
MS Office, Photoshop
Требования к GPU различных VDI пользователей
Вирт. десктопы
Вирт. машина
Windows 7
NVIDIA драйвер
Apps NVIDIA GRID Enabled Virtual Desktop Agent
NVIDIA GRID GPU
NVIDIA GRID ENABLED Hypervisor
Использование GPU в проектах VDI
Сервер UCS C240 M3 оснащенный GRID GPU
Nexus 2232 Nexus 2232
UCS 6200 UCS 6200
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
PWR
SYS
CO
NSO
LE
UCSC240 M3
!
* Based LoginVSI 3.5 Medium work load (Knowledge Worker) without GPU
Поддержка до 186 виртуальных десктопов*
Поддержка до 2 x NVIDIA GRID K2 адаптеров
Поддержка до 2 x NVIDIA GRID K1 адаптеров
Первое в индустрии решение по централизованному управлению GPU
Режимы GPU в виртуальных десктопах
• GPU Pass-through 1:1 выделенный GPU на пользователя
• Shared GPU Программная виртуализация GPU
• Virtual GPU Виртуализация на аппаратном уровне при помощи Nvidia GRID
Гостевая ОС
UCS Сервер
ЦПУ
Режим GPU Pass-Through Карта K1 – 4 вирт. машины, K2 – 2 вирт. машины Жел
езо
ОЗУ Диски Сеть
ПО
Virtual Driver
Virtual Driver
Virtual Driver
Virtual Driver
Вирт
уали
заци
я
Гипервизор
Вирт. машина
vCPU vMemory vStorage vNetwork
App App App App VDA Клиент
NVIDIA Driver
GPU
GPU
Citrix XenDesktop 5.6 FP1 VMware view 5.2
Citrix Xenserver Vmware vDGA
GRID K1/K2
App App App VDA
Гипервизор
Guest OS
Virtual Graphics Driver
OS
Virtual Graphics Driver
Гостевая ОС
UCS Сервер
CPU
Режим – разделяемый (shared) GPU Жел
езо
Memory Storage Network
ПО
Virtual Driver
Virtual Driver
Virtual Driver
Virtual Driver
Вирт
уали
зици
я Вирт. машина
vCPU vMemory vStorage vNetwork vGraphics
Клиент
GPU
NVIDIA Driver
Virtual Graphics Driver Graphics APIs
Rendered Desktop
App App App VDA
App App App App VDA
RemoteFX Microsoft Server 2008 R2 – DX9 Microsoft Server 2012 – DX9, 10, 11 VMware vSGA - DX9, OGL2.1
GRID K1/K2
Guest OS
VIRTUAL MACHINE
Гипервизор
NVIDIA Driver
NVIDIA Driver
Гостевая ОС
UCS сервер
ЦПУ
Режим - виртуальный GPU Citrix Tech Preview CY13Q3
Har
dwar
e
ОЗУ Диски Network
Soft
war
e
Virtual Driver
Virtual Driver
Virtual Driver
Virtual Driver
Virt
ualiz
atio
n Вирт. машина
vCPU vMemory vStorage vNetwork
Клиент
GPU
NVIDIA Driver
vGPU
GRID Software
Граф. команды
App App App App VDA App App App App VDA
App App App VDA
Клиент
Клиент
Стандартный Nvidia драйвер
Citrix XenServer*
Nvidia GRID VGX software
Гипервизор GPU Pass-Through
Разделяемый GPU
Виртуальный GPU
✔
XenApp 6.5 на Windows Server
✔ *(Tech Preview CY13Q3)
✔(vDGA) ✔(vSGA) ✗
✔ ✔ ✗
Поддержка GPU на различных платформах
Пользователь Без-GPU Разделяемый GPU
GPU Pass-through
✗ ✗ ✔
✗ ✗ / ✔ ✔
✔ ✔ ✔
Рекомендуемые режимы
Designer
Power User
Knowledge Worker
Пользо-ватель
Тип карты Гипервизор Virtual Desktop Agent Рекомендуемая
конфигурация
Разработчик
K2
4 пользователя 2 GRID K2 карты 2х сокетный сервер 64 ГБ ОЗУ
Power User
K1
8 пользователей 2 GRID K1 карты 2х сокетный сервер 96 ГБ ОЗУ
K1
8-32+ пользователей 2 GRID K1 карты 2х сокетный сервер Минимум 128 ГБ ОЗУ
GRID – эталонная архитектура
or
or
or
or
XenServer 6.1 XenDesktop 5.6 FP1 (с HDX 3D Pro)
XenDesktop 5.6 FP1 (с HDX 3D Pro)
View 5.X or ESXi 5.1 with vDGA
XenServer 6.1 XenDesktop 5.6 FP1 (с HDX 3D Pro)
XenDesktop 5.6 FP1 (с HDX 3D Pro)
View 5.X
или ESXi 5.1 with vDGA
XenServer 6.1 XenDesktop 5.6 FP1
(с HDX 3D Pro)
ESXi 5.1 с vSGA View 5.X
Windows Server 2012 с Hyper-V Remote FX Knowledge Worker
12/9/13 © 2013 Cisco and/or its affiliates. All rights reserved.
Пожалуйста, заполните анкеты. Ваше мнение очень важно для нас.
Спасибо
Contacts: Name: Khavankin Maxim Phone: +74999295710 E-mail: [email protected]
CiscoRu Cisco CiscoRussia
#CiscoConnectRu
© 2013 Cisco and/or its affiliates. All rights reserved. 12/9/13