Size: a a a

SDS и Кластерные FS

2019 June 26

k

kvaps in SDS и Кластерные FS
Если появится третий, через некоторое время возникнет split-btain
источник

А🐎

Александр 🐎 in SDS и Кластерные FS
Дадада, эт я в курсе.
источник

k

kvaps in SDS и Кластерные FS
Чтобы обезопасить себя можно попробовать заюзать кворум, но опять же активных реплик должно быть не больше двух
источник

А🐎

Александр 🐎 in SDS и Кластерные FS
Мне вообще писать надо только в 1 месте, в других читать
источник

А🐎

Александр 🐎 in SDS и Кластерные FS
Может я вообще не так делаю и мне brbd нафиг не надо
источник

k

kvaps in SDS и Кластерные FS
Александр 🐎
Может я вообще не так делаю и мне brbd нафиг не надо
Вообще я стараюсь всячески избегать использования более одного примари в drbd и всем советую поступать так же.

Например в твоём случае я посоветовал бы high available nfs сервер, вместо ocfs и drbd с allow-two-primaries
источник

А🐎

Александр 🐎 in SDS и Кластерные FS
Не хочу я nfs, было уже.
источник

А🐎

Александр 🐎 in SDS и Кластерные FS
И работало мягко скажем не оч
источник

k

kvaps in SDS и Кластерные FS
Александр 🐎
И работало мягко скажем не оч
Сомневаюсь что такая схема сильно лучше работать будет
источник

А🐎

Александр 🐎 in SDS и Кластерные FS
kvaps
Сомневаюсь что такая схема сильно лучше работать будет
Не попробуешь не узнаешь
источник

k

kvaps in SDS и Кластерные FS
Точно
источник
2019 June 27

AP

Andrew P in SDS и Кластерные FS
Сделал кластер NFS HA на кластере Proxmox на DRBD9 по статье уважаемого @kvaps - всё работает! Сейчас народ тестирует. Единственно что я поменял - мне больше понравилось делать NFS-контейнер на основе Ubuntu 18.04, потому что у неё таймауты NFS-сервера настраиваются в отличие от 16.04, соответственно можно сделать более быстрый failover.
источник

AP

Andrew P in SDS и Кластерные FS
Думаю на тему обновления большого хранилища (оно тоже NFS HA), сейчас там 2 ноды на DRBD8 + pacemaker/corosync - соответственно периодически имеем проблемы со split brain.
Варианты:
1. делать по только что опробованной схеме (3 ноды NFS HA - proxmox - DRBD9)
2. железячная двухконтроллерная хранилка, подключенная к 2 (или 3) нодам на которых NFS HA.

В связи с этим вопросы:
1. Какой вариант лучше в плане надёжности и сложности поддержки?
2. Если вариант номер 2 (к чему я склоняюсь) то надо ли там 3 ноды или достаточно 2? Я не вижу большого преимущества от наличия кворума в данном случае если я обеспечу блокировку от монтирования ресурсов с хранилища более чем на одном сервере.
3. Какую операционку и какой софт для кластеризации лучше выбирать для нод?
источник

k

kvaps in SDS и Кластерные FS
Andrew P
Думаю на тему обновления большого хранилища (оно тоже NFS HA), сейчас там 2 ноды на DRBD8 + pacemaker/corosync - соответственно периодически имеем проблемы со split brain.
Варианты:
1. делать по только что опробованной схеме (3 ноды NFS HA - proxmox - DRBD9)
2. железячная двухконтроллерная хранилка, подключенная к 2 (или 3) нодам на которых NFS HA.

В связи с этим вопросы:
1. Какой вариант лучше в плане надёжности и сложности поддержки?
2. Если вариант номер 2 (к чему я склоняюсь) то надо ли там 3 ноды или достаточно 2? Я не вижу большого преимущества от наличия кворума в данном случае если я обеспечу блокировку от монтирования ресурсов с хранилища более чем на одном сервере.
3. Какую операционку и какой софт для кластеризации лучше выбирать для нод?
А вариант linstor рассматривали?
источник

AP

Andrew P in SDS и Кластерные FS
kvaps
А вариант linstor рассматривали?
Я видимо не очень хорошо понимаю, как он тут может помочь.
источник

AP

Andrew P in SDS и Кластерные FS
В железячной хранилке есть большое премущество что кеши двух контроллеров синхронизируются, что понижает вероятность сбоев в случае failover - в отличие от DRBD9 нод в случае неожиданного отказа мастера
источник

k

kvaps in SDS и Кластерные FS
Andrew P
Я видимо не очень хорошо понимаю, как он тут может помочь.
В подходе по отдельному drbd-устройству на каждую виртуалку, так можно и пространство утилизировать лучше, и локализовать возможные проблемы со стораджем на уровень конкретной виртуалки, а не всего стораджа
источник

AP

Andrew P in SDS и Кластерные FS
а, понял
источник

k

kvaps in SDS и Кластерные FS
К тому же cluster manager ему не требуется
источник

k

kvaps in SDS и Кластерные FS
Ну разве что для контроллера ток, но linstor и без контроллера может работать какое то время, так что не критично
источник