Size: a a a

2020 August 24

АГ

Алексей Головатюк... in VMware vSAN
Karthikeyan Eswaran
Do we have any toubleeshootings steps if any issues occurs
источник

АГ

Алексей Головатюк... in VMware vSAN
источник

N

Nikolay Kulikov in VMware vSAN
Karthikeyan Eswaran
Do we have any toubleeshootings steps if any issues occurs
источник
2020 August 25

AJ

Alexander Juravlev in VMware vSAN
Всем привет. Подскажите, пожалуйста, есть кластер с vsan на базе esxi 6.7, требуется создать несколько политик хранения и для каждой установить лимиты по используемому дисковому пространству. Кто нибудь сталкивался с подобной задачей, есть решение?
источник

N

Nikolay Kulikov in VMware vSAN
Лимитов по емкости в самом vSAN'e нет. Для этого надо использовать какую-либо систему оркестрации (vCD, vRA, OS, k8s, etc) сверху и делать лимиты/ресурс-пулы там.
источник

AJ

Alexander Juravlev in VMware vSAN
Nikolay Kulikov
Лимитов по емкости в самом vSAN'e нет. Для этого надо использовать какую-либо систему оркестрации (vCD, vRA, OS, k8s, etc) сверху и делать лимиты/ресурс-пулы там.
Благодарю за наводку, изучу
источник
2020 August 27

AT

Alexander Ts in VMware vSAN
Николай, а можете разъяснить про кворум в vSAN?
Насколько я понимаю, кворум считается для каждого объекта (диск вм, своп+конфиг и тд) а не для всего кластера.
В кластере из 4х нод , у вм с FTT=1 с множественными дисками может случится такая ситуация:
при отказе 2х нод, ВМ останется запущена (тк процесс ВМ останется на выживших нодах), часть дисков может оказаться недоступна, а часть - доступна.

Как избежать такой ситуации? Можно ли как-то принудительно гасить вм?
источник

ZN

Zhao Si Nicholas in VMware vSAN
Friends, who has the VMware site Recovery Manager key
источник

ZN

Zhao Si Nicholas in VMware vSAN
help me
источник

ZN

Zhao Si Nicholas in VMware vSAN
Okay thank you
источник

AK

Alexander Kupchinets... in VMware vSAN
Zhao Si Nicholas
Friends, who has the VMware site Recovery Manager key
buy license, get your key on ,y.vmware.com
источник

ZN

Zhao Si Nicholas in VMware vSAN
OKay
источник

AZ

Anton Zhbankov in VMware vSAN
Alexander Ts
Николай, а можете разъяснить про кворум в vSAN?
Насколько я понимаю, кворум считается для каждого объекта (диск вм, своп+конфиг и тд) а не для всего кластера.
В кластере из 4х нод , у вм с FTT=1 с множественными дисками может случится такая ситуация:
при отказе 2х нод, ВМ останется запущена (тк процесс ВМ останется на выживших нодах), часть дисков может оказаться недоступна, а часть - доступна.

Как избежать такой ситуации? Можно ли как-то принудительно гасить вм?
Делать FTT=2?
источник

AK

Alexander Kupchinets... in VMware vSAN
Anton Zhbankov
Делать FTT=2?
в кластере из 4 нод?
источник

T

The in VMware vSAN
Для ftt=2 минимум 5 нод/фолтдоменов нужно.
источник

AT

Alexander Ts in VMware vSAN
не настроен, в соответствии с рекомендациями (обычных датасторов же нет)
источник

AK

Alexander Kupchinets... in VMware vSAN
vsan вм не тушит...
vSphere не видит apd от  vsan на каждый обхект
так что таки нужен переход на ftt=2 или мониторинг -> алерт -> парсинг алерта и скриптинг шатдаун вм
источник

N

Nikolay Kulikov in VMware vSAN
Alexander Ts
Николай, а можете разъяснить про кворум в vSAN?
Насколько я понимаю, кворум считается для каждого объекта (диск вм, своп+конфиг и тд) а не для всего кластера.
В кластере из 4х нод , у вм с FTT=1 с множественными дисками может случится такая ситуация:
при отказе 2х нод, ВМ останется запущена (тк процесс ВМ останется на выживших нодах), часть дисков может оказаться недоступна, а часть - доступна.

Как избежать такой ситуации? Можно ли как-то принудительно гасить вм?
Да, кворум считается per-obj, а не per-cluster и ИМХО - это очень круто, потому что очень сильно повышает живучесть системы особенно на больших кластерах. Если есть ВМ с 2-мя дисками, и у нас отвалится один из них, то HA тушить ВМ действительно сам по себе не будет. Чтобы его уронить - можно настроить HA Guest Monitoring (тогда когда упадет системный диск, скорее всего, через некоторое время упадет гость и vmtools - после чего сработает HA guest responce) + есть еще такая забытая штука, как HA App Monitoring - если приклад самописный, то очень просто прикручивается SDK и при падаении приклада сработает App Responce. Еще из вариантов - скрипт внутри гостя, который проверяет доступность дисков и в случае, если диск под прикладом не доступен, то тушит ВМ. Но ИМХО - я бы не стал это делать - повышает риски, что что-то пойдет не так и уронит приклад не по делу, а расчитывать на кейс двойного падения на FTT=1 - это такое. Лучше уж действительно уходить на FTT=2, если вы считаете вероятным такой двойной синхронный сбой.
источник

AZ

Anton Zhbankov in VMware vSAN
Alexander Kupchinetsky
в кластере из 4 нод?
В кластере из 4х нод докупается еще одна нода.
источник

AZ

Anton Zhbankov in VMware vSAN
Но как поставлен вопрос - как сделать так, чтобы машина переживала смерть 2 узлов. Ответ - FTT = 2.
источник