mobile wallpaper 1mobile wallpaper 2mobile wallpaper 3
583 слов
3 минут
Хранилище для HA в кластере Proxmox
2025-09-29
Загрузка статистики...

Хранилище для HA в Proxmox VE: глубокий технический обзор#

Оглавление#

  1. Роль хранилища в High Availability
  2. Сценарий: один узел + требование HA
  3. Сценарий: два узла + quorum / witness
  4. Сценарий: три и более узлов с общим хранилищем
  5. Hyperconverged storage (Ceph и др.)
  6. Внешние SAN/NAS решения
  7. Типы хранилищ, не подходящие для HA
  8. Рекомендации и best practices
  9. Заключение

1. Роль хранилища в High Availability#

В кластере Proxmox VE механизм High Availability (HA) обеспечивает автоматический перезапуск виртуальных машин или контейнеров на других узлах при выходе одного из серверов из строя. Работа HA напрямую зависит от того, какое хранилище используется.

Почему тип хранилища (storage) критичен для HA#

Когда один узел падает, другой должен:

  • иметь доступ к дискам виртуальной машины (VM/CT);
  • считать конфигурацию;
  • запустить экземпляр без рассинхронизации данных.

Требования к хранилищу для HA-кластера#

  1. Shared access (общий доступ) — диск VM должен быть доступен с нескольких узлов.
  2. Кластерная согласованность — поддержка блокировок, защита от split-brain, синхронная/асинхронная репликация.
  3. Failover без ручного вмешательства — автоматический старт VM на другом узле.
  4. Сетевые требования — отдельная сеть для хранилища, минимум 10GbE желательно.
  5. Надёжность данных — RAID, репликация Ceph, DRBD, отказоустойчивые NAS/SAN.
  6. Поддержка Proxmox HA stack — Ceph, iSCSI, NFS, ZFS replication, GlusterFS (не поддерживается начиная с версии Proxmox VE9).

2. Сценарий: один узел + требование HA#

2.1. Локальное хранилище с ZFS RAID или аппаратным RAID#

  • Плюсы: защита дисков, простота, производительность
  • Минусы: нет failover, HA невозможен

2.2. Репликация ZFS на “пассивный” узел (ноду)#

  • Позволяет иметь так называемый «cold standby», но не HA, нет автоматического старта VM

2.3. Репликация на внешний NAS/СХД#

  • Подходит для резервного копирования, но NAS становится SPOF (единая точка отказа)

2.4. Snapshots + vzdump#

  • Только восстановление данных, failover невозможен

Вывод: HA невозможен на одном узле, нужен минимум 2+ узла с общим хранилищем (storage).


3. Сценарий: два узла + quorum#

3.1. Проблема двух узлов: split-brain#

  • Без третьего голоса (QDevice) HA не работает корректно.

Решение: QDevice#

  • Варианты: отдельная VM, мини-PC, PBS, Raspberry Pi
  • После добавления → 3 голоса, HA работает

3.2. Хранилище для HA в 2-узловом кластере#

StorageHA-совместимостьSPOFТребуется QDeviceПроизводительность
ZFS Local + ReplicationДа (частично)УзелДаСредняя
NFS / iSCSI / NASДаNASДаСредняя
CephДаНетДаВысокая
DRBD9ДаНетДаСредняя

4. Сценарий: три и более узлов с общим хранилищем#

4.1. Почему от 3 узлов всё проще#

  • Кворум поддерживается нативно
  • Нет split-brain при потере одного узла
  • Простое управление HA

4.2. Shared storage#

4.2.1 NFS#

  • Файловое подключение, подходит для VM/CT дисков и ISO
  • NAS как SPOF (единая точка отказа). Потеря связи с NAS, все виртуальные машины выключются.

4.2.2 iSCSI#

  • Блочный доступ, multipath для HA
  • SPOF SAN возможен

4.2.3 SMB/CIFS#

  • Только для ISO/шаблонов, не для дисков VM

4.3. Hyperconverged-хранилище#

  • Ceph: RBD/FS, 3+ узла, self-healing, блочное хранилище
АрхитектураSPOFПроизводительностьТребованияМасштабируемостьHA совместимость
NFSNASСредняяНизкиеСредняяДа
iSCSISANВысокаяСредниеСредняяДа
CephНетВысокаяВысокиеОтличнаяДа

5. Hyperconverged storage (Ceph и др.)#

5.1. Ceph#

  • RBD для VM дисков
  • CephFS для ISO, templates, backups
  • Требует 3+ узла, отдельная сеть, SSD/NVMe

6. Внешние SAN/NAS решения#

ТипОписаниеHA совместимостьПримечание
NAS (NFS/CIFS)Файловое хранилищеДа (NFS)CIFS только для ISO/шаблонов
SAN (iSCSI/Fibre Channel)Блочный доступДаMultipath обязателен
Unified StorageNFS + iSCSIДаNAS/SAN кластеризация рекомендована

Примеры подключения:

# NFS
Datacenter -> Storage -> Add -> NFS
Server: IP NAS
Export: /volume1/proxmox
Content: Disk image, ISO, backup
Nodes: все узлы
# iSCSI
Datacenter -> Storage -> Add -> iSCSI
Target: IQN LUN
Portal: IP SAN
Nodes: все узлы
Optionally: LVM over iSCSI

7. Типы хранилищ, не подходящие для HA#

| Storage | HA совместимость | Примечание | |-----|----------|-----------------|------------| | Local LVM/Director | отсутствует | Только один узел | | CIFS/SMB | отсутствует | Только ISO/шаблоны | | ZFS локальный без replication | отсутствует | Требуется DR/репликация | | Rsync / ручная репликация | отсутствует | Нет автоматического failover |#

8. Рекомендации и best practices#

  • Минимум 3 узла для кворума

  • Использовать shared или hyperconverged storage

  • Отдельная сеть для хранилища (10GbE)

  • Настройка HA группы в Proxmox

  • Регулярные бэкапы с помощью Proxmox Backup Server

  • Тестирование failover и мониторинг

  • Синхронная репликация для критично важных VM

  • Документирование архитектуры (чтобы не забыть что ты там себе напроектировал)


9. Заключение#

  • Один узел ≠ HA

  • Два узла требуют QDevice

  • Три и более узлов — оптимальная конфигурация

  • Выбор хранилища зависит от задач и бюджета: Ceph, GlusterFS, DRBD, NAS/SAN

  • Обязательно делаем бэкапы и сетевое резервирование

Следуя этим принципам, кластер Proxmox VE будет устойчивым, масштабируемым и обеспечит автоматический failover критичных VM и контейнеров.

Хранилище для HA в кластере Proxmox
https://prohomelab.com/posts/proxmox/proxmox-cluster-type-of-storage/
Автор
Stilicho2011
Опубликовано
2025-09-29
Лицензия
CC BY-NC-SA 4.0

Некоторая информация может быть устаревшей