Alexander Ts
Николай, а можете разъяснить про кворум в vSAN?
Насколько я понимаю, кворум считается для каждого объекта (диск вм, своп+конфиг и тд) а не для всего кластера.
В кластере из 4х нод , у вм с FTT=1 с множественными дисками может случится такая ситуация:
при отказе 2х нод, ВМ останется запущена (тк процесс ВМ останется на выживших нодах), часть дисков может оказаться недоступна, а часть - доступна.
Как избежать такой ситуации? Можно ли как-то принудительно гасить вм?
Да, кворум считается per-obj, а не per-cluster и ИМХО - это очень круто, потому что очень сильно повышает живучесть системы особенно на больших кластерах. Если есть ВМ с 2-мя дисками, и у нас отвалится один из них, то HA тушить ВМ действительно сам по себе не будет. Чтобы его уронить - можно настроить HA Guest Monitoring (тогда когда упадет системный диск, скорее всего, через некоторое время упадет гость и vmtools - после чего сработает HA guest responce) + есть еще такая забытая штука, как HA App Monitoring - если приклад самописный, то очень просто прикручивается SDK и при падаении приклада сработает App Responce. Еще из вариантов - скрипт внутри гостя, который проверяет доступность дисков и в случае, если диск под прикладом не доступен, то тушит ВМ. Но ИМХО - я бы не стал это делать - повышает риски, что что-то пойдет не так и уронит приклад не по делу, а расчитывать на кейс двойного падения на FTT=1 - это такое. Лучше уж действительно уходить на FTT=2, если вы считаете вероятным такой двойной синхронный сбой.