Перейти к основному содержимому
Background Image
  1. Статьи/

Хранилище для HA в кластере Proxmox

·738 слов·4 минут· loading · loading · ·
Stilicho2011
Автор
Stilicho2011
Пишу о homelab, self-hosting, автоматизации и open-source решениях
Оглавление
Proxmox - This article is part of a series.
Part : This Article

Хранилище для HA в Proxmox VE: глубокий технический обзор
#

Оглавление
#

  1. Роль хранилища в High Availability
  2. Сценарий: один узел + требование HA
  3. Сценарий: два узла + quorum / witness
  4. Сценарий: три и более узлов с общим хранилищем
  5. Hyperconverged storage (Ceph и др.)
  6. Внешние SAN/NAS решения
  7. Типы хранилищ, не подходящие для HA
  8. Рекомендации и best practices
  9. Заключение

1. Роль хранилища в High Availability
#

В кластере Proxmox VE механизм High Availability (HA) обеспечивает автоматический перезапуск виртуальных машин или контейнеров на других узлах при выходе одного из серверов из строя. Работа HA напрямую зависит от того, какое хранилище используется.

Почему тип хранилища (storage) критичен для HA
#

Когда один узел падает, другой должен:

  • иметь доступ к дискам виртуальной машины (VM/CT);
  • считать конфигурацию;
  • запустить экземпляр без рассинхронизации данных.

Требования к хранилищу для HA-кластера
#

  1. Shared access (общий доступ) — диск VM должен быть доступен с нескольких узлов.
  2. Кластерная согласованность — поддержка блокировок, защита от split-brain, синхронная/асинхронная репликация.
  3. Failover без ручного вмешательства — автоматический старт VM на другом узле.
  4. Сетевые требования — отдельная сеть для хранилища, минимум 10GbE желательно.
  5. Надёжность данных — RAID, репликация Ceph, DRBD, отказоустойчивые NAS/SAN.
  6. Поддержка Proxmox HA stack — Ceph, iSCSI, NFS, ZFS replication, GlusterFS (не поддерживается начиная с версии Proxmox VE9).

2. Сценарий: один узел + требование HA
#

2.1. Локальное хранилище с ZFS RAID или аппаратным RAID
#

  • Плюсы: защита дисков, простота, производительность
  • Минусы: нет failover, HA невозможен

2.2. Репликация ZFS на “пассивный” узел (ноду)
#

  • Позволяет иметь так называемый «cold standby», но не HA, нет автоматического старта VM

2.3. Репликация на внешний NAS/СХД
#

  • Подходит для резервного копирования, но NAS становится SPOF (единая точка отказа)

2.4. Snapshots + vzdump
#

  • Только восстановление данных, failover невозможен

Вывод: HA невозможен на одном узле, нужен минимум 2+ узла с общим хранилищем (хранилище).


3. Сценарий: два узла + quorum
#

3.1. Проблема двух узлов: split-brain
#

  • Без третьего голоса (QDevice) HA не работает корректно.

Решение: QDevice
#

  • Варианты: отдельная VM, мини-PC, PBS, Raspberry Pi
  • После добавления → 3 голоса, HA работает

3.2. Хранилище для HA в 2-узловом кластере
#

StorageHA-совместимостьSPOFТребуется QDeviceПроизводительность
ZFS Local + ReplicationДа (частично)УзелДаСредняя
NFS / iSCSI / NASДаNASДаСредняя
CephДаНетДаВысокая
DRBD9ДаНетДаСредняя

4. Сценарий: три и более узлов с общим хранилищем
#

4.1. Почему от 3 узлов всё проще
#

  • Кворум поддерживается нативно
  • Нет split-brain при потере одного узла
  • Простое управление HA

4.2. Shared storage
#

4.2.1 NFS
#

  • Файловое подключение, подходит для VM/CT дисков и ISO
  • NAS как SPOF (единая точка отказа). Потеря связи с NAS, все виртуальные машины выключются.

4.2.2 iSCSI
#

  • Блочный доступ, multipath для HA
  • SPOF SAN возможен

4.2.3 SMB/CIFS
#

  • Только для ISO/шаблонов, не для дисков VM

4.3. Hyperconverged-хранилище
#

  • Ceph: RBD/FS, 3+ узла, self-healing, блочное хранилище
АрхитектураSPOFПроизводительностьТребованияМасштабируемостьHA совместимость
NFSNASСредняяНизкиеСредняяДа
iSCSISANВысокаяСредниеСредняяДа
CephНетВысокаяВысокиеОтличнаяДа

5. Hyperconverged storage (Ceph и др.)
#

5.1. Ceph
#

  • RBD для VM дисков
  • CephFS для ISO, templates, backups
  • Требует 3+ узла, отдельная сеть, SSD/NVMe

6. Внешние SAN/NAS решения
#

ТипОписаниеHA совместимостьПримечание
NAS (NFS/CIFS)Файловое хранилищеДа (NFS)CIFS только для ISO/шаблонов
SAN (iSCSI/Fibre Channel)Блочный доступДаMultipath обязателен
Unified StorageNFS + iSCSIДаNAS/SAN кластеризация рекомендована

Примеры подключения:

# NFS
Datacenter -> Storage -> Add -> NFS
Server: IP NAS
Export: /volume1/proxmox
Content: Disk image, ISO, backup
Nodes: все узлы

# iSCSI
Datacenter -> Storage -> Add -> iSCSI
Target: IQN LUN
Portal: IP SAN
Nodes: все узлы
Optionally: LVM over iSCSI

7. Типы хранилищ, не подходящие для HA
#

StorageHA совместимостьПримечание
Local LVM/DirectorотсутствуетТолько один узел
CIFS/SMBотсутствуетТолько ISO/шаблоны
ZFS локальный без replicationотсутствуетТребуется DR/репликация
Rsync / ручная репликацияотсутствуетНет автоматического failover

8. Рекомендации и best practices
#

  • Минимум 3 узла для кворума

  • Использовать shared или hyperconverged storage

  • Отдельная сеть для хранилища (10GbE)

  • Настройка HA группы в Proxmox

  • Регулярные бэкапы с помощью Proxmox Backup Server

  • Тестирование failover и мониторинг

  • Синхронная репликация для критично важных VM

  • Документирование архитектуры (чтобы не забыть что ты там себе напроектировал)


9. Заключение
#

  • Один узел ≠ HA

  • Два узла требуют QDevice

  • Три и более узлов — оптимальная конфигурация

  • Выбор хранилища зависит от задач и бюджета: Ceph, GlusterFS, DRBD, NAS/SAN

  • Обязательно делаем бэкапы и сетевое резервирование

Следуя этим принципам, кластер Proxmox VE будет устойчивым, масштабируемым и обеспечит автоматический failover критичных VM и контейнеров.

Proxmox - This article is part of a series.
Part : This Article