П
1) если есть возможность (как физическая, так и материальная, цена вопроса до 30к руб б/у карты если брать), купить 3 штуки двухголовых 10G сетевух, соединить их один в один, чтобы был интерконнект "здорового человека", после чего варианты — а) гиперковергентный хост, стораж zfs RAID 1 (или raid 0, если экстремалы и верите в репликацию) + replication раз в 5-10 минут, но live migration может работать не очень адекватно, особенно если используете linked clone для создания виртуалок (т.е. работать то оно будет, но нужно напильник и руки, чтобы напилять собственные скрипты). Но если не использовать live migration (кстати сказать, очень редко пользуюсь), то можно и не париться, оффлайн отрабатывает норм, б) сделать одну ноду iSCSI таргетом, втыкнуть туда 4 NVMe (6 может не поместиться) а две остальные воркерами, но это уже от железа зависит, теоретически можно и на таргете крутить виртуалки, если совсем хочется три ноды упаковать экстремально ) но тут будет одна точка отказа, в виде таргета единственного, соответственно может произойти большая бяка в один прекрасный момент. Я больше за первый вариант, оно более устойчиво к отказам узлов, но там больше ручной работы и всяких таких напильниковых нюансов (плюс за репликами нужно следить), хотя... в принципе по умолчанию proxmox поставит вам это все, реплики через GUI тоже можно включить, да и жить так )) Судя по постановке, это маленькое SOHO решение для виртуалок не особо зверских, ну как-то будет работать, даже в 1Гбит варианте. Я бы не парился даже, больше пишем чем делать ) Обсуждать тут что-то серьезное, для такого масштаба задачи, просто сотрясать воздух, нужно просто закладывать риски сбоев, время на восстановление, пределы потери оперативных данных и все такое, стараться это уменьшить - где критично.
2) страдать на 1гбит сети в тех же вариантах )
P.S. в любых вариантах — нужно еще где-то бэкапы держать

