Cisco ucs manager. обзор интерфейса управления

Cisco ucs manager. обзор интерфейса управления

В продолжение поста о распаковке Cisco UCS, приехавшей в отечественный Центр компетенции, мы поведаем о Cisco UCS Manager, благодаря которому производится настройка всей совокупности. Данную задачу мы выполнили в рамках подготовки к тестированию FlexPod (Cisco UCS + NetApp в режиме MetroCluster) для одного из отечественных клиентов.
Смотрите кроме этого: Гугл начала внедрение функции Android Device Manager

Как и планировалось ранее, компания Гугл официально запустила сервис Android Device Manager. Он рекомендован для поиска потерянных либо похищенных мобильных устройств с ОС Android.При помощи web-интерфейса пользователь может обнаружить карте собственный утерянное мобильное устройство (при условии, что оно не отключено и находится в пределах территории покрытия Wi-Fi либо 3G). Кроме этого пользователь имеет возможность позвонить на собственный мобильное устройство.

При таких условиях оно будет звонить максимально звучно в течение 5 мин.. Дабы отключить сигнал, необходимо надавить кнопку питания.

Отметим главные преимущества Cisco UCS, благодаря которым выбор пал именно на данную совокупность:

  • Cisco UCS есть унифицированной совокупностью, а не разрозненной группой серверов с попыткой единого управления;
  • наличие унифицированной фабрики, которая содержит встраиваемое управление, применение универсального транспорта, отсутствие уровня коммутации в шасси и на уровне гипервизора– Virtual Interface Card, простое каблирование;
  • единая конвергентная фабрика на всю совокупность (единовременное управление до 320 серверами) в отличие от соперников – собственная фабрика на каждое шасси (до 16 серверов);
  • одна точка управления, быстрота конфигурирования при применении политик и профилей, что дает минимизацию рисков при настройке, развертывании, тиражировании, снабжает высокую масштабируемость.

Классические блейд совокупности имеют следующие недочёты:

  • любой блейд-сервер – идеологически, с позиций управления такой же стоечный либо башенный сервер, лишь в другом форм-факторе;
  • любой сервер – сложная совокупность с солидным большим числом и числом компонентов замечательных средств управления;
  • каждое шасси, любой сервер, и как правило любой коммутатор должны настраиваться раздельно и значительно чаще «вручную»;
  • «зонтичные» «единые» совокупности управления существуют, но это как правило легко комплект ссылок на отдельные утилиты;
  • интеграция «наверх» у этих совокупностей вероятна, но ограничивается «стандартными» несложными интерфейсами.

В отличие от соперников Cisco UCS имеет продуманную совокупность управления – UCS Manager. Этот продукт имеет следующие отличительные изюминки:

  • не требует отдельного сервера, СУБД, ОС и лицензий на них — он часть UCS;
  • не требует инсталляции и настройки – совокупность и задайте IP-адрес;
  • владеет встроенной отказоустойчивостью;
  • имеет действенные и простые средства резервного копирования конфигурации;
  • обновляется несколькими «кликами»;
  • делегирует целый собственный функционал «наверх» через открытый XML API;
  • стоит $0.00.

Сам Cisco UCS Manager находится на обоих Fabric Interconnect, и все настройки, политики и т.п. сохраняются кроме этого на них.К одной паре Fabric Interconnect может подключено до 20 блейд-шасси. Управление каждым из шасси осуществляется из одной точки – UCS Manager. Это вероятно за счет того, что Fabric Interconnect строится как распределенный коммутатор с участием Fabric Extender’ов.

Каждое шасси имеет по два Fabric Extender, с возможностью подключения 4 или 8 10GB линками любой.Начинаем с самого главного: подключения задания и консольного провода начального IP-адреса. По окончании чего запускаем браузер и соединяемся. (Пригодится java, т.к. по сути GUI UCS Manager’а реализовано на ней). На картинках ниже представлен внешний вид программы, что появляется на экране по окончании пароля и ввода логина и входа в UCS Manager.Вкладка «LAN»Работу по настройке начинаем на вкладке «LAN».

Нужно подчернуть, что с настройки данной вкладки, и вкладки «SAN» начинается настройка всей совокупности. Особенно актуально это при применения бездисковых серверов – именно отечественный случай.Тут настраивается все, что имеет отношение к сети: какие конкретно VLAN разрешены на том либо другом Fabric Interconnect, какими портами соединены Fabric Interconnect между собой, какие конкретно порты в каком режиме трудятся и другое.Кроме этого на данной вкладке настраиваются шаблоны для виртуальных сетевых интерфейсов: vNIC, каковые в будущем будут использоваться в сервисных политиках, обрисованных выше.

На любой vNIC (которых к слову на хосте возможно до 512 при установке 2 плат Cisco UCS VIC) привязывается определенный VLAN, или несколько VLAN и «общение» физического хоста по сети идет как раз через эти vNIC. Организация для того чтобы количества vNIC вероятна посредством карты виртуального интерфейса VIC (Virtual Interface Card). В семействе блейд серверов Cisco UCS существует 2 вида VIC: 1240 и 1280. Любая из них имеет возможность помощи до 256 vNIC либо vHBA.

Основное отличие в том, что 1240 есть LOM модулем, а 1280 мезанинная карта, так же в пропускной свойстве.1240 самостоятельно имеет возможность агрегации до 40 GB, с возможностью расширения до 80GB при применении Expander Card.1280 изначально может пропускать через себя до 80GB. VIC разрешают динамически назначать пропускную свойство на любой vNIC либо vHBА, конечно поддерживают hardware failover.Ниже возможно подметить пара созданных пулов IP адресов, из которых эти самые адреса будут присваиваться сетевым интерфейсам в определенных VLAN (этакий аналог EBIPA у HP).

Подобно дело обстоит и с MAC адресами, каковые берутся из MAC пулов.В общем концепция несложная: создаем VLAN(ы), настраиваем порты на Fabric Interconnect, настраиваем vNIC, выдаем этим vNIC MAC/IP адреса из пулов и загоняем в сервисную политику для предстоящего применения. Ответственное замечание: Как вы понимаете существуют валидированные дизайны Cisco с большими игроками рынка совокупностей хранения данных, к примеру, таковой как FlexPod. Дизайн FlexPod включает серверное и сетевое оборудование – Cisco, а в роли СХД выступает NetApp.

Для чего спросите вы в том месте еще и сетевое оборудование? Дело все в том, что в версии 1.4 и 2.0 UCS Manager сам Fabric Interconnect не осуществлял FC зонирование. Для этого был нужен вышестоящий коммутатор (к примеру, Cisco Nexus), подключенный к Fabric Interconnect через Uplink порты. В версии UCS Manager 2.1. показалась помощь локальных территорий, что разрешило возможно подключать Storage напрямую к Fabric Interconnect. Вероятные дизайны возможно взглянуть вот тут.

Но все-таки оставлять FlexPod без коммутатора не следует, т.к. FlexPod есть независимым строительным блоком ЦОДа.Перейдем к следующей вкладке: «SAN» Тут находится все, что относится к сети передачи данных: iSCSI и FCoE. Концепция такая же, как и у сетевых адаптеров vNIC, но со собственными отличиями: WWN, WWPN, IQN и т.п.Переходим на вкладку «Equipment»Посредством данного интерфейса возможно заметить данные о нашей общей вычислительной инфраструктуре, которая была развернута для тестирования.

Так, было задействовано одно шасси (Chassis 1) и четыре сервера-лезвия (Server1, Server2, Server3, Server4). Эти сведенья возможно взять из дерева в левой части (Equipment), или в графическом виде (Physical Display). Кроме количества шасси/серверов возможно взглянуть данные о запасных компонентах (вентиляторы, блоки питания и т.п.), и данные об алертах различного типа. Общее число алертов выводится в блоке «Fault Summary», раздельно данные по каждому узлу возможно взглянуть, кликнув по нему слева.

Цветные рамки около названий узлов слева оказывают помощь определить, на каком узле имеется алерты. Внимательные читатели увидят кроме этого маленькие пиктограммы и на графическом виде.Отечественные Fabric Interconnect настроены на работу в failover режиме (при выходе из строя одного из агрегатов – его работу без промедлений возьмет на себя второй). Информация об этом видна в самом низу дерева – обозначения primary и subordinate.

Потом переходим к вкладке «Servers»Тут находятся разные политики, шаблоны сервисных профилей и конкретно сами сервисные профили. К примеру, мы можем создать пара организаций, каждой из которых назначить собственные политики выбора загрузочного устройства, доступа к определенным VLAN/VSAN и др.На следующем рисунке продемонстрирован пример настройки iSCSI загрузочного луна.Глобальный суть всего этого: предварительно настроив все политики и шаблоны, возможно скоро настраивать новые сервера для работы, используя тот либо другой сервисный профиль (Service Profile).Сервисный профиль, что содержит в себе упомянутые выше настройки, возможно применен к одному определенному серверу, или группе серверов.

В случае если на протяжении развертывания появляются какие-либо неточности либо сообщения – мы можем взглянуть их в соответствующей вкладке «Faults»:По окончании чего пользователи этих организаций смогут развернуть и настроить сервер под себя с выбранной набором и операционной системой предустановленным комплектом ПО. Для этого нужно воспользоваться возможностями интерфейса UCS Manager, или обратившись к автоматизации: к примеру при помощи продукта VMware vCloud Automation Center либо Cisco Cloupia.

Переходим на вкладку «VM»В VMware vCenter возможно установить плагины для Cisco UCS Manager. Так, мы подключили плагин, через что подключили виртуальный дата-центр с заглавием «FlexPod_DC_1». В нем трудится Cisco Nexus 1000v (ниссан-блюберд), и мы имеем возможность наблюдать его настройки.Ну и последняя вкладка: «Admin»Тут мы можем взглянуть глобальные события: неточности, предупреждения.

Собрать разные данные в случае обращения в поддержку Cisco TAC и т.п. вещи. В частности их возможно взять на вкладках «TechSupport Files», «Core Files».На скриншоте видны неточности, которые связаны с отключением электроэнергии.

В рамках тестирования мы отключали попеременно блоки питания (Power supply 1 in fabric interconnect A, B) для демонстрации клиенту стабильности работы совокупности при смоделированном случае отключения подачи питания на одном энерговводе.В качестве заключенияХотим подчернуть, что целый процесс тестирования и настройки FlexPod, частью которого есть тест и настройка Cisco UCS, занял целую семь дней. Мало усложнило задачу отсутствие документации для последней версии UCS Manager 2.1.

Приходилось пользоваться вариантом для 2.0, что имеет последовательность расхождений. На всякий случай выкладываем ссылку на документацию. Быть может, и она кому-нибудь понадобится.В следующих постах мы продолжим освещать тему FlexPod.

В частности мы планируем рассказать о том, как мы вместе с клиентом тестировали NetApp в режиме MetroCluster в составе FlexPod. Не отключайтесь! 🙂

Случайная статья:

Первичная настройка Cisco UCS Manager


Похожие статьи:

Комментирование и размещение ссылок запрещено.

Обсуждение закрыто.