Инсталляция и первичная настройка Sangfor Cloud Platform. Часть 1

Привет, меня зовут Иван. В компании НУБЕС (Nubes) я отвечаю за направление виртуализации и поддержку облачных сервисов. И у меня наконец-то дошли руки до продолжения нашей серии статей, в которой мы делимся опытом работы с решением для виртуализации и облачного портала от компании Sangfor. 

e8e3b74530b668b75ea127cc0e8753bf.png

В предыдущих статьях мы обсудили Sangfor HCl (Hyper Converged Infrastructure). Рассмотрели установку решения, а также важные нюансы типа подключения СХД и настройки aSAN. 

Сегодня мы расскажем об облачном портале SCP (Sangfor Cloud Platform) — решении для управления ресурсами на базе Sangfor HCI, в котором можно организовать public cloud, выделять ресурсы нескольким тенантам и не только. 

Обсудим, как в SCP:  

Развертывание SCP

Создание виртуальной машины с аплайнсом портала

Как и в других решениях виртуализации, портал живет в отдельной виртуальной машине (ВМ), образ которой необходимо развернуть на одном из хостов HCI. Сам процесс несложный и проходит в формате Next-next-next-ok.

Выбираем пункт New, далее — Import Virtual Machine File. Затем используем заранее загруженный образ портала. 

524f3fbbe726cdb495bfc72a5e115c12.png

Скриншот выше демонстрирует нам настройки, которые можно изменить. На самом деле здесь есть только один важный пункт, а именно — HA: если при развертывании HCI мы не загрузили файл с лицензией, то галочку HA включить не получится, ибо данная функция будет недоступна. Сняв галку, мы спокойно сможем продолжить развертывание ВМ. 

После успешной загрузки образа виртуальная машина запустится автоматически, и нам необходимо будет провалиться в виртуальную консоль. Там мы проведем настройку сетевого интерфейса и установим пароль администратора. Настройка, кстати, максимально простая. Нужно нажать один раз Enter, указать адрес и еще раз нажать Enter. Здесь даже скриншот не нужен. 

После всех этих действий мы сможем перейти в браузере по указанному нами адресу и попасть в GUI портала. 

Переходим на https://SCP-IP:4430/. Вбиваем логин и пароль, попадаем на главный экран (порт 4430 позволяет провалиться в админскую часть портала. Клиентская часть по умолчанию идет без указания порта.).

Так как при первичной установке портала у меня не было возможности делать скриншоты, я использую скриншоты уже настроенного портала, но сути это не меняет :)

Главный экран достаточно информативен и показывает нам heath-статус нашего портала. Каждый пункт можно выбрать и провалиться в отдельные меню с более подробной информацией. 

c7d38b86c885de423875cb4e6f6d04b4.jpeg

Генерация и установка лицензии

Как закончили рассматривать главный экран, идем далее. Теперь нам необходимо сгенерировать файл для выпуска лицензии. Для этого переходим в System — Licensing — Update License Key — Export Device Info. После загрузки файл-ключа информация по лицензии будет выглядеть приблизительно так:

2244d2045fb7cd3da6d1cd31e73f358c.jpeg

Важно! При добавлении у нас будет выбор Licensing Mode: между Centralized mode и Standalone. В первом варианте используется лицензия, выписанная одновременно на портал и на ресурсный кластер, и управляется со стороны портала. Второй вариант необходим, если у нас есть ресурсные кластеры, покрытые отдельной лицензией. В нашем варианте мы использовали первый вариант. 

Также здесь необходимо добавить NTP и DNS. Без этих настроек могут появляться ошибки. Например, такое случается при миграции. 

Многие сейчас наверняка уже задали вопрос: «А почему нода только одна?» Она одна, потому что я решил не разворачивать кластер, так как в рамках тестов (Activate Windows, привет) в нем нет необходимости. 

Добавление новых нод простое и делается в System — через Platform Config. Нужно лишь изменить режим работы кластера c Standalone на Cluster Mode нажатием одной кнопки. А далее можно развернуть новые ноды (аналогично первой) и добавить их по IP.

Мы разобрались с лицензиями и другими мелкими настройками. Теперь самое время добавить немного ресурсов. 

Кластеры, ресусрный пул и пул адресов

Выбрав в общем меню пункт Resource Overview — Сlusters, мы можем добавить новый кластер. Тут также нет никаких сложных действий. Используем Add Cluster, указываем имя, тип кластера (HCI или VMware), IP и учетные данные. 

Сразу же добавим ресурсный пул, так как дальше на основе данного кластера мы будем работать именно с ним. Итак, Resource Overview — Resource Pools — HCI — New. Затем в два действия (указание имени пула и выбор добавленного ранее кластера) мы добавляем новый ресурсный пул. 

На этом этапе мы уже можем начать нарезать квоты, в том числе и для тенантов. Но до этого нужно совершить еще одну настройку — добавить для них пул адресов.

Все-таки компаниям-тенантам обычно нужен доступ в интернет. Поэтому переходим в Networking, выбираем IP and Bandwidth — Elastic IP Pools и закидываем немного внешних адресов для тенантов.

Выглядит это на примере моего пула вот так:

42431517469c7bc116b917c441b98706.jpeg

 Всё, теперь мы можем перейти к настройкам клиентской части портала.

Пользовательская часть портала

Создание и настройка тенанта

Честно говоря, настройки для создания тенанта находятся в весьма нелогичном (для меня) месте. Нам нужно ткнуть на учетную запись админа и там уже выбрать User and Access Management. Почему меню создания тенантов находится там, мне совершенно непонятно. Ну ладно.

ba372b496372509dfda7b3f830f3fbc1.jpeg

Общий вид получаем такой:

a339bef7ccc9db5f72622ed744959ac8.jpeg

 Добавление учетки админа портала нас не интересует, так что смело переходим на вкладку Tenants и приступаем к созданию.

Здесь все тоже просто:

  1. Указываем имена тенанта и юзера, почту, телефон (неожиданно) и пароль.

  2. Выбираем наш созданный кластер с ресурсами.

  3. Создаем сеть, подключая ее к дефолтному (если не меняли топологию) эджу.

По поводу сети. Мы можем создать два варианта:  

  • VPC — если есть доступ к интернету и требуется повышенная безопасность. 

  • Classic network — если взаимодействуете напрямую с другими тенантами. 

В обоих случаях создается маршрутизатор, подключенный к периферии. Классическая сеть мне не нужна, поэтому я выбрал VPC.

Настройка квот и билинг

Перед знакомством с клиентской частью портала выполним еще кое-что. А точнее —  настроим квоты и биллинг (это опционально, если что).

Тенантские квоты делятся на два вида:

  1. Публичные ресурсы (Public Resource). Здесь мы указываем такие ресурсы, как: объемы места под приватные образы и объектного хранилища (если предоставлен такой сервис), файловое хранилище, количество DR для виртуальных машин, число IP и QoS по полосе.

  2. Ресурсы кластера (Resource Pool: Cluster). Тут мы прописываем привычные нам CPU, RAM, разные политики хранения для ВМ, vGPU, объем места под бэкапы, различные сервисы Redis, MongoDB, LB, Kafka, RabbitMQ и сервисы Sangfor: ADC, NGAF, SSL VPN, IAG, aDesk VDI, aSecurity. 

Если интересно, то вот полный список vGPU

GeForce RTX2080Ti (NVIDIA)

GeForce RTX2080TiA (NVIDIA)

Quadro RTX6000 (NVIDIA)

Tesla M10 (NVIDIA)

Tesla M60 (NVIDIA)

Tesla P100 (NVIDIA)

Tesla P40 (NVIDIA)

Tesla T4 (NVIDIA)

Tesla V100 (NVIDIA)

Tesla V100D (NVIDIA)

Tesla V100DX (NVIDIA)

Tesla V100S (NVIDIA)

GeForce RTX3080 (NVIDIA)

GeForce RTX3090 (NVIDIA)

TITAN TITANV (NVIDIA)

TITAN TITANRTX (NVIDIA)

A10 (NVIDIA)

A16 (NVIDIA)

A30 (NVIDIA)

A40 (NVIDIA)

A100 (NVIDIA)

A100D (NVIDIA)

Quadro RTX8000 (NVIDIA)

GeForce RTX3080LHR (NVIDIA)

GeForce RTX2070 (NVIDIA)

Quadro M4000 (NVIDIA)

GRID K1 (NVIDIA)

GRID K2 (NVIDIA)

GeForce RTX4000 (NVIDIA)

T1000 (NVIDIA)

T1000–8GB (NVIDIA)

RTX A4000 (NVIDIA)

MLU270-S4 (Cambricon)

MLU370-S4 (Cambricon)

Atlas 300V Pro (Huawei).

Далее выбираем обычные ресурсы (CPU, RAM, Storage, Backup) под обычные ВМ и сохраняем наш выбор. Меню Quota Overview покажет нам то, что именно мы навыбирали.

5237712de22f6cdc8097a872ecdd9da0.jpeg

 Идем далее. В меню Bills можно настроить два вида прайсов:

6208369907acfb3d87d312915d1f55b6.jpeg

  • Индивидуальный — для тенантов по выбору. Public Resource выглядит так же, как и на скрине выше, а Resource Pool можно настроить по каждому выделенному клиенту сервису.

116c81d3881f813b6d2bebc742999ca4.jpeg

Как видите, это очень удобно. Но цены пока только в USD. Ждем, когда добавят рубли)

Обзор интерфейса и создание ВМ

Вот и настал момент, когда мы можем провалиться в клиентскую часть портала. 

Для этого заходим по той же ссылке, что и ранее, но без указания порта 4430 в конце (https://SCP-IP). Вбиваем свой логин и пароль (только их, без какого-либо указания имени тенанта. Что будет, если указать одинаковые данные для разных тенантов, история умалчивает.).

Далее проваливаемся в … 

d159e4fb759a9766b7e3b61016a32953.jpeg

… такой же по интерфейсу портал, что и админский. В главном меню мы видим, что настроек чуть меньше, но названия оставшихся не поменялись.

Так как общий вид нам уже знаком, предлагаю сразу создать ВМ. 

Если администраторы портала уже загрузили образы различных операционных систем в общий доступ, то нам нужно  только выбрать соответствующий и нажать Create Virtual Machine. Если таких образов нет или нужен кастомный, то заливаем образ в Private VM Image.

Для успешного создания ВМ в следующем меню нам нужно будет лишь создать новую сеть или сделать это заранее в меню Network Deployment — VPC — New. Остальные настройки можно оставить без изменений, тогда ВМ создастся в минимальной конфигурации.

7ab176d9e38fcee24dbe3e73943af951.jpeg

После успешного создания ВМ топология будет выглядеть следующим образом:  

923e318a7fbfa2b019fdf401282f86f6.jpeg

На мой взгляд, выглядит очень удобно. Но вот непонятно, как это будет выглядеть при наличии нескольких десятков ВМ.

Бэкапы

А теперь предлагаю посмотреть, как выглядит процесс бэкапирования ВМ. Комбинация действий »‎Reliability — Scheduled Backup — Scheduled Backup Policy» позволит нам настроить задание по резервному копированию виртуальной машины. 

d5eabef6e0e9e0f0de660d87b923e093.jpeg

Важно помнить, что должна быть выделена соответствующая квота. Без нее задача на финальном этапе выдаст ошибку.

8ae720af6b9d1e225119deef3d201d47.jpeg

Теперь нужно только дать имя нашему заданию и завершить настройку. После чего бэкап создастся и появится в списке.

Вот и всё. На этом этапе я завершаю первую статью об установке и настройке Sangfor SCP. В следующий раз рассмотрим возможности облачного портала, нюансы подключения ресурсов VMware и миграции ВМ. 

Если хотите узнать про платформу больше, загляните на наш вебинар 29 февраля в 11.00. Ведущие эксперты по HCI расскажут про все возможности продукта. А еще они обсудят онюансы кросс-платформенной миграции, в том числе с VMware. Участие бесплатное, нужно лишь зарегистрироваться.

© Habrahabr.ru