2-контроллерные СХД начального уровня

Заказ звонка

*
*
Защита от автоматических сообщений
CAPTCHA
Введите слово на картинке*

2-контроллерные СХД начального уровня

2-контроллерные СХД начального уровня

Готовые системы хранения данных начального уровня часто используются в различных решениях для SMB-сегмента: консолидация дискового пространства, виртуализация, различные кластерные решения, требующие совместного блочного доступа.

Ключевые особенности архитектуры большинства представленных на рынке СХД начального уровня:

  • Использование одного или двух контроллеров с горячей заменой, использующих совместный доступ к дискам. Под контроллером подразумевается специализированный сервер в специальном форм-факторе, обеспечивающий работу СХД (работу с дисками, обслуживание массивов и предоставление томов хостам и т.д.)

    Наличие двух контроллеров обеспечивает повышение общей надёжности СХД — возможность избежать простоя при запланированном отключении или выходе из строя одного из контроллеров) и дополнительное масштабирование производительности при распределении томов по разным контроллерам. При использовании кэша на запись обеспечивается защита его целостности: защита по питанию (обычная батарея или ионисторы плюс сброс на флеш-память) и дублирование содержимого между контроллерами.

  • Выбор хост-интерфейсов: 16 и 8Гбит FiberChannel, 1 и 10Гбит Ethernet (iSCSI, в некоторых моделях может быть поддержка FCoE), SAS. Для некоторых моделей существуют комбинированные варианты, например FC + SAS.
  • Возможно подключение дополнительных дисковых полок (простых корпусов с SAS-экспандерами) через интерфейс SAS. Для повышения надёжности подключения может быть применено 2-путевое подключение (ниже приведён пример одной из возможных схем подключения).

Распространённая схема подключения 2-контроллерной СХД в SAN начального уровня с частичным устранением SPoF (единых точек отказа): два HBA (или один 2-портовый) на сервере подключены через два коммутатора к двум контроллерам СХД. Работоспособность сохраняется при наличии хотя бы одного пути от сервера к СХД, т.е. допускается выход из строя или отключение порта HBA, одного из коммутаторов, одного из контроллеров (или порта на нём).

Отказоустойчивая схема подключения дисковых полок. Для второго контроллера используется обратный порядок каскадирования, что позволяет сохранить подключение при выходе из строя любой из промежуточных дисковых полок.

Производительность СХД начального уровня

ALUA

В большинстве современных 2-контроллерных СХД начального уровня используется т.н. ассиметричный доступ: оба контроллера могут принимать запросы на доступ к определённому LUN, но непосредственно обслуживанием каждого конкретного LUN занимается лишь один контроллер.

В вышеприведённой схеме владельцем LUN A назначен контроллер A, для LUN Bконтроллер B. Для каждого LUN есть набор оптимальных путей (зеленый цвет) и неоптимальных (красный). Запрос, отправленный по оптимальному пути, будет напрямую обработан контроллером, по неоптимальному — принят одним контроллером и передан соседнему контроллеру-владельцу LUN'а. Наличие таких дополнительных операций приведёт к снижению производительности. Для оптимального использования ресурсов СХД в спецификациях SCSI существует протокол ALUA (Asymmetric Logical Unit Access), позволяющий корректно использовать все доступные пути в MPIO: использовать только оптимальные пути, переключаться на другие доступные пути в случае неисправности оптимальных путей и автоматически переключаться обратно при их появлении.

Советы по планированию и внедрению решений на базе СХД начального уровня

  • При планировании конфигурации СХД желательно равномерно распределить нагрузку по контроллерам.
  • При планировании отказоустойчивых решений важно свести к минимуму наличие единых точек отказа: кластеризация серверов, использование двухпортовых HBA (или нескольких однопортовых, но в большинстве случаев это избыточно), дублирование коммутаторов SAN.
  • Планируйте правильное с точки зрения MPIO подключение: для каждого из портов HBA должны быть доступны оба контроллера.
  • В большинстве случаев для конкретной СХД может потребоваться специфическая настройка MPIO, учитывающая архитектуру СХД.
  • Наличие отказоустойчивости на уровне дисков, контроллеров СХД и даже СХД целиком (репликация) не отменяют необходимости в резервном копировании.

Работа с SSD

Совсем недавно производительность контроллеров в большинстве СХД начального уровня составляла в лучшем случае около пары десятков тысяч IOPS, что ограничивало практическое применение двумя-тремя SSD. Сейчас ситуация улучшилась, лимиты производительности выросли до сотен тысяч IOPS, но даже современные 2-контроллерные СХД не стоит рассматривать в качестве платформы для создания all-flash массива.

В реальности на ограничение по IOPS и задержкам дополнительно влияет выбор интерфейса. Например, полностью раскрыть потенциал производительности современных SSD при использовании iSCSI через 1GbE невозможно даже при использовании большого количества линков.

Функционал

Описание наиболее распространённого функционала СХД начального уровня:

  • Снапшоты (моментальные снимки). Снапшот — способ создания виртуальной копии тома на определённый момент времени. При создании снапшота его содержимое представлено ссылками на блоки исходного тома, при изменении блоков на исходном томе (перед операцией записи) его текущее состояние копируется в том-снапшот, т.е. используется т.н. copy-on-write.

    Снапшот не стоит использовать непосредственно для резервного копирования, так как он не является независимой копией данных. Обычно снапшоты используются в качестве промежуточного звена при создании резервной копии, но в этом случае необходимо принимать меры для обеспечения целостности данных (например, с использованием VSS).

  • Клонирование томов. После создания снапшота его можно превратить в полную независимую копию тома, просто заменив все ссылки реальными данными. Такой способ позволяет создать полную копию тома без необходимости остановки работы с исходным томом.
  • Thin provisioning (тонкое выделение ресурсов). При использовании Thin Provisioning дисковое пространство на томах будет выделено только при его реальном заполнении данными, что позволяет упростить администрирование СХД при растущих объёмах данных.
  • Репликация — создание удалённой копии тома, используется в катастрофоустойчивых решениях. Репликация может быть синхронной (операция записи считается завершённой только после записи на локальный том и на удалённый) или асинхронной (подтверждение операций записи происходит без учёта состояния удалённого тома). Синхронная операция обеспечивает гарантию отсутствия потери данных при выходе из строя основной СХД (не теряется ни одна операция записи), но требует наличия интерфейса с достаточной пропускной способностью и приемлемым уровнем задержки.
  • Разгрузка дисковых операций (VAAI, ODX). В виртуальных средах (например, в VMWare vSphere) используется большое число специфических дисковых операций, например, копирование большого объёма данных заполнение нулями, блокировка LUN'а. Для улучшения производительности подобные операции могут выполняться на стороне СХД без участия хоста.
  • Tiering (ярусное хранение данных) — позволяет разместить блоки данных по накопителям с различным уровнем производительности в зависимости от нагрузки. Такое перераспределение является прозрачным для хоста и позволяет оптимально использовать объём быстрых и дорогих накопителей (SSD или HDD 10-15 тыс. об/мин). Данный функционал, как и классический SSD-кэш, сравнительно недавно пришёл в сегмент СХД начального уровня.

Infortrend EonStor DS 1000/2000/3000

Компания Infortrend с 1993 года занимается разработкой и производством систем хранения данных. На российском рынке широкое распространение получила линейка 2-контроллерных СХД начального уровня EonStor DS. Infortrend не использует брендирование дисков, допустимо применение любых дисков из списка совместимости, что положительно сказывается на стоимости готового решения.

В настоящее время актуальной является линейка EonStor DS 3000 и её чуть менее производительные варианты — 2000 и 1000. Ключевой особенностью является гибкость при конфигурировании. Для смены интерфейса не обязательно менять контроллер целиком, достаточно заменить небольшую и относительно недорогую интерфейсную плату.

На что обратить внимание:

  • Сменные интерфейсные платы
  • Infortrend предлагает опциональные SATA-интерпозеры — дополнительные платы-переходники, позволяющие использовать диски SATA в 2-контроллерных конфигурациях, для которых требуются диски SAS из-за наличия двух портов. По возможности старайтесь избегать применения интерпозеров и используйте диски с интерфейсом SAS.

Контроллер Infortrend EonStor DS 3000. Установлена интерфейная плата с двумя портами 4xSAS2.
2U, 12x3.5"
2U, 24x2.5"
3U, 16x3.5"
4U, 24x3.5"
4U, 48/60x3.5"
Форм-фактор
  • 1024B, 2024B, 3024B: 2U, 24x 2.5"
  • 1012, 2012, 3012: 2U, 12x 3.5"
  • 1016, 2016, 3016: 3U, 16x 3.5"
  • 3024: 4U, 24x 3.5"
  • 3048: 4U, 48x 3.5"
  • 3060: 4U, 60x 3.5"
Интерфейсы Определяются выбором дочерней платы для контроллера. Кол-во портов на один контроллер:
  • 2x FC 16Гбит/с
  • 4x FC 16Гбит/с
  • 2x iSCSI 10Гбит/с SFP+
  • 2x iSCSI 10Гбит/с RJ-45
  • 4x iSCSI 1Гбит/с RJ-45
  • 2x SAS3 (4x12Гбит/с)
  • 2x SAS2 (4x6Гбит/с)
Кэш
  • Серия 1000: 2/4/8ГБ на контроллер
  • Серия 2000, 3000: 2/4/8/16ГБ на контроллер
Макс. число дисков
  • Модели 1012, 2012, 3012: 312
  • Модели 1016, 2016, 3016: 316
  • Остальные: 360
Функционал
  • Thin provisioning
  • SSD-кэш
  • Automated storage tiering (ярусное хранение) — 2 или 4 уровня
  • Снапшоты
  • Локальное клонирование и зеркалирование томов
  • Синхронная и асинхронная репликация (кроме SAS)
Различные конфигурационные пределы
  • 32 тома
  • 64 LUN'а на том, 2048 LUN'ов всего
  • до 4-х SSD под кэш или ярусное хранение, максимальный объём кэш-пула до 1,6ТБ (в зависимости от объёма памяти)
Производительность
  • серия 1000: 550 тыс. IOPS, 5500МБ/с (2 контроллера)
  • серия 2000: 750 тыс. IOPS, 5500МБ/с (2 контроллера)
  • серия 3000: 1,3 млн. IOPS, 5500МБ/с (2 контроллера)

Тестирование производительности Infortrend 3024B

  • Infortrend EonStor DS 3024GB
  • Один контроллер
  • Подключение: 2x порта 4xSAS2 (HBA LSI 9300-8e)
  • 48 дисков 600ГБ 10 тыс. об/мин в RAID-6
  • Хост: Intel Xeon E5606, 40ГБ памяти, CentOS Linux 6.6 X86_64, fio 2.1.14
  • Последовательный доступ, блок 1МиБ, 2 потока

DotHill AssuredSAN 3000, AssuredSAN 4000, AssuredSAN Ultra

Компания DotHill во многом известна благодаря тому, что является OEM-партнёром HP. Системы хранения данных начального уровня HP Modular Storage Array (MSA) нескольких последних поколений производит именно DotHill.

На что обратить внимание:

  • Серия AssuredSAN Ultra с высокой плотностью размещения дисков: 48 дисков 2.5" в корпусе 2U (Ultra48) и 56 дисков 3.5" в корпусе 4U (Ultra56)

Форм-фактор
  • 3824C, 4524C, 4824C: 2U, 24x 2.5"
  • 3934C, 4534C, 4834C: 2U, 12x 3.5"
  • 4544C, 4844C (Ultra48): 2U, 48x 2.5"
  • 4554C, 4854C (Ultra56): 4U, 56x 3.5"
Интерфейсы Кол-во портов на один контроллер:
  • 3824C, 3934C: 2x FC 8Гбит/с / 2x FC 16Гбит/с / 2x iSCSI 10Гбит/с SFP+ (в зависимости от используемых трансиверов)
  • 4824C, 4834C, 4844C, 4854C: 4x FC 8Гбит/с / 4x FC 16Гбит/с / 4x iSCSI 10Гбит/с SFP+ (в зависимости от используемых трансиверов)
  • 4524C, 4534C, 4544C, 4554C: 4x SAS3 SFF-8644 (4x12Гбит/с)
Кэш
  • 4ГБ на контроллер
Макс. число дисков
  • серия 3000: 96 дисков, максимум 3 дополнительные дисковые полки (2U, 24x 2,5" или 2U, 12x 3,5")
  • серия 4000 и Ultra48: 192 диска, максимум 7 дополнительных дисковых полок (2U, 24x 2,5" или 2U, 12x 3,5")
  • серия Ultra56: 224 диска (3 дисковых полки J6G48)
Функционал
  • Снапшоты
  • Локальное клонирование томов
  • Синхронная и асинхронная репликация (кроме SAS)
  • SSD-кэш и tiering
  • Thin provisioning
  • VAAI
Различные конфигурационные пределы
  • 32 тома
  • 1024 LUN'а
Производительность
  • серия 3000: 40 тыс. IOPS, 3300/2400МБ/с чтение/запись (2 контроллера)
  • серия 4000: 100 тыс. IOPS, 6400/5300МБ/с чтение/запись (2 контроллера)

HP MSA 1040/2040

СХД HP MSA2040 является заменой предыдущей модели MSA P2000 G3. Производится компанией DotHill, соответствует серии DotHill 4000. Выбор в пользу Hеwlett-Packard может быть обусловлен необходимостью в использовании расширенной поддержки с гарантированным временем восстановления.

На что обратить внимание:

  • Серия MSA1040 — бюджетный вариант с меньшей производительностью и масштабируемостью. Не имеет поддержки SSD.

Форм-фактор
  • HP MSA 1040 SFF, 2040 SFF: 2U, 24x 2.5"
  • HP MSA 1040 LFF, 2040 LFF: 2U, 12x 3.5"
Интерфейсы Кол-во портов на один контроллер:
  • HP MSA 1040: 2x FC 8Гбит/с или 2x iSCSI 10Гбит/с SFP+ или 2x iSCSI 1Гбит/с RJ-45
  • HP MSA 2040 SAS Controller: 2x SAS3 (4x12Гбит/с)
  • HP MSA 2040 SAN Controller: 4x FC 8Гбит/с или 4x FC 16Гбит/с или 4x iSCSI 10Гбит/с SFP+ (в зависимости от установленных трансиверов)
Кэш
  • 4ГБ на контроллер
Макс. число дисков
  • 1040: 99 дисков, максимум 3 дополнительные дисковые полки (2U, 24x 2,5" или 2U, 12x 3,5")
  • 2040: 192 диска, максимум 7 дополнительных дисковых полок (2U, 24x 2,5" или 2U, 12x 3,5")
Функционал
  • Thin provisioning
  • MSA 2040: SSD-кэш
  • MSA 2040: Automated storage tiering (ярусное хранение) — 3 уровня (использование SSD в ярусном хранении требует приобретения отдельной лицензии)
  • Снапшоты
  • Локальное клонирование томов
  • Асинхронная репликация (кроме SAS)
  • MSA 2040: Поддержка VAAI, интеграция с VMware SRM
Различные конфигурационные пределы
  • 512 LUN'ов
Производительность*
  • MSA 1040: 29,4 тыс. IOPS, 3100/2000МБ/с чтение/запись (2 контроллера)
  • MSA 2040: 85 тыс. IOPS, 6310/4800МБ/с чтение/запись (2 контроллера)
*указана реальная производительность в определенных конфигурациях, а не теоретический предел

Вернуться к списку

Контакты:

  • Адрес: 115487, г. Москва, ул. Нагатинская, дом 16 (Метро "Нагатинская")
  • Телефон: (495) 747-3113
  • Факс: (495) 747-3112
  • Гарантийный отдел: (495) 747-3113 (доб. 333, 304)
  • Отдел продаж: (495) 747-3113
© 2006-2024 True System inc