Size: a a a

KVM (PVE/oVirt etc)

2019 May 01

П

Павел in KVM (PVE/oVirt etc)
Ihor Horhul
Вот что можно сделать, допустим с 3-х нод у которых один интерфейс 1Гбит, 2x1ТБ NVME SSD
Всего три ноды и в каждой 2 NVMe диска по 1 ТБ и между ними интерконнект 1Гбит, я верно понял?
1) если есть возможность (как физическая, так и материальная, цена вопроса до 30к руб б/у карты если брать), купить 3 штуки двухголовых 10G сетевух, соединить их один в один, чтобы был интерконнект "здорового человека", после чего варианты — а) гиперковергентный хост, стораж zfs RAID 1 (или raid 0, если экстремалы и верите в репликацию) + replication раз в 5-10 минут, но  live migration может работать не очень адекватно, особенно если используете linked clone для создания виртуалок (т.е. работать то оно будет, но нужно напильник и руки, чтобы напилять собственные скрипты). Но если не использовать live migration (кстати сказать, очень редко пользуюсь), то можно и не париться, оффлайн отрабатывает норм, б) сделать одну ноду iSCSI таргетом, втыкнуть туда 4 NVMe (6 может не поместиться) а две остальные воркерами, но это уже от железа зависит, теоретически можно и на таргете крутить виртуалки, если совсем хочется три ноды упаковать экстремально ) но тут будет одна точка отказа, в виде таргета единственного, соответственно может произойти большая бяка в один прекрасный момент. Я больше за первый вариант, оно более устойчиво к отказам узлов, но там больше ручной работы и всяких таких напильниковых нюансов (плюс за репликами нужно следить), хотя... в принципе по умолчанию proxmox поставит вам это все, реплики через GUI тоже можно включить, да и жить так )) Судя по постановке, это маленькое SOHO решение для виртуалок не особо зверских, ну как-то будет работать, даже в 1Гбит варианте. Я бы не парился даже, больше пишем чем делать ) Обсуждать тут что-то серьезное, для такого масштаба задачи, просто сотрясать воздух, нужно просто закладывать риски сбоев, время на восстановление, пределы потери оперативных данных и все такое, стараться это уменьшить - где критично.
2) страдать на 1гбит сети в тех же вариантах )

P.S. в любых вариантах — нужно еще где-то бэкапы держать
источник

IH

Ihor Horhul in KVM (PVE/oVirt etc)
Павел
Всего три ноды и в каждой 2 NVMe диска по 1 ТБ и между ними интерконнект 1Гбит, я верно понял?
1) если есть возможность (как физическая, так и материальная, цена вопроса до 30к руб б/у карты если брать), купить 3 штуки двухголовых 10G сетевух, соединить их один в один, чтобы был интерконнект "здорового человека", после чего варианты — а) гиперковергентный хост, стораж zfs RAID 1 (или raid 0, если экстремалы и верите в репликацию) + replication раз в 5-10 минут, но  live migration может работать не очень адекватно, особенно если используете linked clone для создания виртуалок (т.е. работать то оно будет, но нужно напильник и руки, чтобы напилять собственные скрипты). Но если не использовать live migration (кстати сказать, очень редко пользуюсь), то можно и не париться, оффлайн отрабатывает норм, б) сделать одну ноду iSCSI таргетом, втыкнуть туда 4 NVMe (6 может не поместиться) а две остальные воркерами, но это уже от железа зависит, теоретически можно и на таргете крутить виртуалки, если совсем хочется три ноды упаковать экстремально ) но тут будет одна точка отказа, в виде таргета единственного, соответственно может произойти большая бяка в один прекрасный момент. Я больше за первый вариант, оно более устойчиво к отказам узлов, но там больше ручной работы и всяких таких напильниковых нюансов (плюс за репликами нужно следить), хотя... в принципе по умолчанию proxmox поставит вам это все, реплики через GUI тоже можно включить, да и жить так )) Судя по постановке, это маленькое SOHO решение для виртуалок не особо зверских, ну как-то будет работать, даже в 1Гбит варианте. Я бы не парился даже, больше пишем чем делать ) Обсуждать тут что-то серьезное, для такого масштаба задачи, просто сотрясать воздух, нужно просто закладывать риски сбоев, время на восстановление, пределы потери оперативных данных и все такое, стараться это уменьшить - где критично.
2) страдать на 1гбит сети в тех же вариантах )

P.S. в любых вариантах — нужно еще где-то бэкапы держать
Бекапы, то отдельный сторадж =). У меня нет опыта построения общего хранилища, обычно использовали локальные, вот хочет попробовать общее.
источник

i

ivdok in KVM (PVE/oVirt etc)
Павел
Всего три ноды и в каждой 2 NVMe диска по 1 ТБ и между ними интерконнект 1Гбит, я верно понял?
1) если есть возможность (как физическая, так и материальная, цена вопроса до 30к руб б/у карты если брать), купить 3 штуки двухголовых 10G сетевух, соединить их один в один, чтобы был интерконнект "здорового человека", после чего варианты — а) гиперковергентный хост, стораж zfs RAID 1 (или raid 0, если экстремалы и верите в репликацию) + replication раз в 5-10 минут, но  live migration может работать не очень адекватно, особенно если используете linked clone для создания виртуалок (т.е. работать то оно будет, но нужно напильник и руки, чтобы напилять собственные скрипты). Но если не использовать live migration (кстати сказать, очень редко пользуюсь), то можно и не париться, оффлайн отрабатывает норм, б) сделать одну ноду iSCSI таргетом, втыкнуть туда 4 NVMe (6 может не поместиться) а две остальные воркерами, но это уже от железа зависит, теоретически можно и на таргете крутить виртуалки, если совсем хочется три ноды упаковать экстремально ) но тут будет одна точка отказа, в виде таргета единственного, соответственно может произойти большая бяка в один прекрасный момент. Я больше за первый вариант, оно более устойчиво к отказам узлов, но там больше ручной работы и всяких таких напильниковых нюансов (плюс за репликами нужно следить), хотя... в принципе по умолчанию proxmox поставит вам это все, реплики через GUI тоже можно включить, да и жить так )) Судя по постановке, это маленькое SOHO решение для виртуалок не особо зверских, ну как-то будет работать, даже в 1Гбит варианте. Я бы не парился даже, больше пишем чем делать ) Обсуждать тут что-то серьезное, для такого масштаба задачи, просто сотрясать воздух, нужно просто закладывать риски сбоев, время на восстановление, пределы потери оперативных данных и все такое, стараться это уменьшить - где критично.
2) страдать на 1гбит сети в тех же вариантах )

P.S. в любых вариантах — нужно еще где-то бэкапы держать
> raid 0
Больной ублюдок ©
источник

i

ivdok in KVM (PVE/oVirt etc)
RAIDZ-1 хотя бы, а лучше десяточку, если позволяет бюджет
источник

i

ivdok in KVM (PVE/oVirt etc)
С live migration ловлю лошибки всякие на 5.4, на 99.7-99.9% ловлю "operation cancelled", и на таргете весь прогресс стирается. Плюс ещё беда - не затирается снапшот __migration__, из-за чего даже offline миграция не стартует.
источник

FD

Find DT in KVM (PVE/oVirt etc)
ivdok
RAIDZ-1 хотя бы, а лучше десяточку, если позволяет бюджет
Десяточку для кеша в реплике? 😕
источник

i

ivdok in KVM (PVE/oVirt etc)
Find DT
Десяточку для кеша в реплике? 😕
Тут же разговоры были типа "ssd кэш - старьё, только олл-флеш"
источник

VO

Vitaliy Okulov in KVM (PVE/oVirt etc)
Ssd кеш честный путь выстрелить себе в ногу
источник

VO

Vitaliy Okulov in KVM (PVE/oVirt etc)
Пару раз после развала кеша разваливался основной рейд
источник

FD

Find DT in KVM (PVE/oVirt etc)
Vitaliy Okulov
Пару раз после развала кеша разваливался основной рейд
От кэша зависит.
источник

VO

Vitaliy Okulov in KVM (PVE/oVirt etc)
На базе adaptec
источник

П

Павел in KVM (PVE/oVirt etc)
Find DT
Десяточку для кеша в реплике? 😕
Я бы вопрос поставил так, скорее, а как их двух дисков по условиям задачи сделать RAID 1+0
источник

VO

Vitaliy Okulov in KVM (PVE/oVirt etc)
Купить ещё 2
источник

FD

Find DT in KVM (PVE/oVirt etc)
Vitaliy Okulov
На базе adaptec
Тогда ладно. Не вкурсе как там оно работает - у самого программные решения.
источник

П

Павел in KVM (PVE/oVirt etc)
Или купить 3 и сделать raidz2, или купить отдельный стораж, чтобы в две головы был и вообще... если так продолжать, можно много чего ещё придумать :)
источник

FD

Find DT in KVM (PVE/oVirt etc)
Павел
Или купить 3 и сделать raidz2, или купить отдельный стораж, чтобы в две головы был и вообще... если так продолжать, можно много чего ещё придумать :)
ИМХО, больше всего должен интересовать мониторинг всего этого дела, а то полетит весь кеш по ресурсу.
источник

i

ivdok in KVM (PVE/oVirt etc)
Find DT
ИМХО, больше всего должен интересовать мониторинг всего этого дела, а то полетит весь кеш по ресурсу.
Тут тоже есть загвоздка - упомянутый выше Intel по SMART'ам отлично себя чувствует, и показывает 1800ч+ наработки, но все хранилки его выплёвывают c imminent failure
источник
2019 May 02

TF

Terry Filch in KVM (PVE/oVirt etc)
новшество ubuntu 19.04 для тех кто в теме

теперь вместо /var/run/nginx - нужно юзать /run/nginx
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
источник

TF

Terry Filch in KVM (PVE/oVirt etc)
ну и это касается всего софта
источник