Size: a a a

2020 February 27

DG

Dmitry Gorokhov in VMware vSAN
а то как-то странно
источник

KS

Konstantin Statsenko in VMware vSAN
Dmitry Gorokhov
Я могу у себя на стенде схожий тест провернуть и сравним результаты :)
ok, интересно поведение без дедупа
источник

DG

Dmitry Gorokhov in VMware vSAN
у меня нет дедупа, гибридный vSAN
источник

KS

Konstantin Statsenko in VMware vSAN
супер
источник

DG

Dmitry Gorokhov in VMware vSAN
можно тогда в личку прислать параметры запуска и попробую чуть позже
источник

N

Nikolay Kulikov in VMware vSAN
Konstantin Statsenko
а как то можно посмотреть сколько WB используется конкретным объектом в моменте ?
Нет, там общее заполнение.
источник

N

Nikolay Kulikov in VMware vSAN
Konstantin Statsenko
ok, интересно поведение без дедупа
Без дедупа used = written x FTT
источник
2020 March 01

KS

Konstantin Statsenko in VMware vSAN
тэкс... я опять к вам пришел со странными вопросами )
Представим что есть не очень заполненный кластер. На каждом capacity диске утилизировано примерно 20%. У нас 2 DG на хост. В 1 DG вылетает диск, мы ее теряем, но это не проблема, ребилд прошел. Но!, теперь у нас на этом хосте сильно утилизированная оставшаяся дисковая группа на которой стало примерно в 1,5 раза больше компонентов и утилизированного места чем на остальных DG в кластере. Соответственно IO на эту DG теперь попадает куда больше, даже если мы оживили вторую DG.  Вопрос - как то vSAN умеет в ребаланс DG в зависимости от кол-ва компонент или только по дельте заполнения умеет ?
источник

KS

Konstantin Statsenko in VMware vSAN
Вообще хорошо бы он умел еще hot spotы вычислять, и равномерно их размазывать, но это я уже так, придираюсь )
источник

AK

Alexander Kupchinetsky in VMware vSAN
Откуда выводы:
- что при вылете диска мы теряем DG?
- при вылете 1 DG на хосте на оставшуюся пойдёт больше IO?
источник

AO

Aleksey Omelyanovich in VMware vSAN
Konstantin Statsenko
тэкс... я опять к вам пришел со странными вопросами )
Представим что есть не очень заполненный кластер. На каждом capacity диске утилизировано примерно 20%. У нас 2 DG на хост. В 1 DG вылетает диск, мы ее теряем, но это не проблема, ребилд прошел. Но!, теперь у нас на этом хосте сильно утилизированная оставшаяся дисковая группа на которой стало примерно в 1,5 раза больше компонентов и утилизированного места чем на остальных DG в кластере. Соответственно IO на эту DG теперь попадает куда больше, даже если мы оживили вторую DG.  Вопрос - как то vSAN умеет в ребаланс DG в зависимости от кол-ва компонент или только по дельте заполнения умеет ?
Нет. Согласно политикам он раскидывает данные по остальным DG и повышения нагрузки на оставшуюся в одиночестве DG на хосте не происходит.
источник

KS

Konstantin Statsenko in VMware vSAN
Alexander Kupchinetsky
Откуда выводы:
- что при вылете диска мы теряем DG?
- при вылете 1 DG на хосте на оставшуюся пойдёт больше IO?
я забыл написать что dedup включен. ну если нагрузка на ВМ примерно одинаковая то ответ очевиден, мне кажется.
источник

AK

Alexander Kupchinetsky in VMware vSAN
Konstantin Statsenko
я забыл написать что dedup включен. ну если нагрузка на ВМ примерно одинаковая то ответ очевиден, мне кажется.
Тогда да, вся ДГ «пропадает»
Нагрузка ляжет на все оставшиеся ДГ
Если хостов достаточно для выполнения FTT - IO и ребилд пойдёт равномерно на все оставшиеся ДГ
Если было 3 хоста и ftt=1 с mirroring или 4 хоста и ftt=1 c EC - тогда да, ребилд придётся делать в оставшуюся ДГ на тот же хост
источник

KS

Konstantin Statsenko in VMware vSAN
Ага, и когда мы вернем "восстановленную" DG на ней ничего не будет и нагрузка будет продолжать идти только на первую DG пока мы не создадим еще новых ВМ или не сработает threshold по rebalance (который учитывает только дельту по месту)
источник

N

Nikolay Kulikov in VMware vSAN
Konstantin Statsenko
тэкс... я опять к вам пришел со странными вопросами )
Представим что есть не очень заполненный кластер. На каждом capacity диске утилизировано примерно 20%. У нас 2 DG на хост. В 1 DG вылетает диск, мы ее теряем, но это не проблема, ребилд прошел. Но!, теперь у нас на этом хосте сильно утилизированная оставшаяся дисковая группа на которой стало примерно в 1,5 раза больше компонентов и утилизированного места чем на остальных DG в кластере. Соответственно IO на эту DG теперь попадает куда больше, даже если мы оживили вторую DG.  Вопрос - как то vSAN умеет в ребаланс DG в зависимости от кол-ва компонент или только по дельте заполнения умеет ?
Количество компонентов +- равно утилизации по месту, потому что компоненты примерно +- одинаковые по размеру. Включите автоматический ребаланс и поставьте трешхолд (я бы оставил дефолтный 30%).
источник

N

Nikolay Kulikov in VMware vSAN
Konstantin Statsenko
Вообще хорошо бы он умел еще hot spotы вычислять, и равномерно их размазывать, но это я уже так, придираюсь )
Вопрос в том, что hot spot - существует в моменте - неделю его нет, а потом 5 минут есть. Или нет. Заранее предсказать это невозможно. А миграция данных занимает время и создаёт доп. Нагрузку именно на те компоненты и тогда, когда с них нужна максимальная производительность
источник

N

Nikolay Kulikov in VMware vSAN
После хот спот может позникнуть уже в другом месте, потому что опять таки заранее предсказать что и как будет генерировать нагрузку невозможно
источник

KS

Konstantin Statsenko in VMware vSAN
Nikolay Kulikov
Количество компонентов +- равно утилизации по месту, потому что компоненты примерно +- одинаковые по размеру. Включите автоматический ребаланс и поставьте трешхолд (я бы оставил дефолтный 30%).
при низкой утилизации по месту можно долго ждать 30%
источник

N

Nikolay Kulikov in VMware vSAN
При низкой утилизации по месту запаса Performance - вагон
источник

KS

Konstantin Statsenko in VMware vSAN
хорошо бы кол-во компонентов как то учитывать
источник