Size: a a a

KVM (PVE/oVirt etc)

2020 December 29

DK

Denis K in KVM (PVE/oVirt etc)
Vladimir Manko
я знаю что взлетит, на стенде гонял и проверял, надо теперь увидеть что оно в железе мне даст, по скоростям, прежде всего под большие диски виртуалок
под большие диски виртуалок тоже норм
источник

VM

Vladimir Manko in KVM (PVE/oVirt etc)
Nikita Uchaev
Буду очень благодарен, если поделитесь резулльтатом.

На пачке гигабитных линков, верно?
уже нет, будет 10 гигабит под сторажд
источник

DK

Denis K in KVM (PVE/oVirt etc)
я базы на ceph вешаю остальной шлак на gluster
источник

NU

Nikita Uchaev in KVM (PVE/oVirt etc)
LINSTOR is a configuration management system for storage on Linux systems. It manages LVM logical volumes and/or ZFS ZVOLs on a cluster of nodes. It leverages DRBD for replication between different nodes and to provide block storage devices to users and applications. It manages snapshots, encryption and caching of HDD backed data in SSDs via bcache.

Я так понимаю, что всяческие drbd, glusterfs и т.п. создадут меньше накладных расходов, чем тот же ceph? Или просто это единственные варианты, в случае когда у нас нет выделенных блочных устройств?
источник

DK

Denis K in KVM (PVE/oVirt etc)
но уменя сетка 10 G
источник

П

Павел in KVM (PVE/oVirt etc)
мы тоже гоняли Linstor — в целом вроде норм, там задержки ниже чем у CEPH, насколько помню, т.е. IOPS можно выжать больше с того же железа, но остановились все равно на CEPH, в конце концов, работает — клиенты не жаловались
источник

VM

Vladimir Manko in KVM (PVE/oVirt etc)
Nikita Uchaev
LINSTOR is a configuration management system for storage on Linux systems. It manages LVM logical volumes and/or ZFS ZVOLs on a cluster of nodes. It leverages DRBD for replication between different nodes and to provide block storage devices to users and applications. It manages snapshots, encryption and caching of HDD backed data in SSDs via bcache.

Я так понимаю, что всяческие drbd, glusterfs и т.п. создадут меньше накладных расходов, чем тот же ceph? Или просто это единственные варианты, в случае когда у нас нет выделенных блочных устройств?
цеф лучше когда у тебя куча серверов и в них небольшое кол-во дисков (ну так серверов 7, и в каждом по 4-8 дисков), гластер когда мало серверов, но внутри дисков вагон (как у меня сейчас 3 сервака по 36 дисков), самые низкие накладные расходы у линстора, но там необходимость держать базу и контроллер который всем управляет, ну и приезжают иногда глюки непонятные, а без платного саппорта (который стоит вагон денег) тяжеловато.
источник

П

Павел in KVM (PVE/oVirt etc)
думаю, что там где важны IOPS высокие, лучше Linstor таки попробовать, но в остальном — вопрос скорее что умеете лучше обслуживать, как обычно. Не скажу, что CEPH сильно лучше хоть в чем-то, но по нему вроде как больше инсталляций и значит всяких случаев. Хотя ceph все равно несколько переусложненный, как по мне
источник

VM

Vladimir Manko in KVM (PVE/oVirt etc)
Павел
думаю, что там где важны IOPS высокие, лучше Linstor таки попробовать, но в остальном — вопрос скорее что умеете лучше обслуживать, как обычно. Не скажу, что CEPH сильно лучше хоть в чем-то, но по нему вроде как больше инсталляций и значит всяких случаев. Хотя ceph все равно несколько переусложненный, как по мне
согласен
источник

П

Павел in KVM (PVE/oVirt etc)
да, ceph наверное туда где нужны большие по настоящему хранилища, там эта его сложность будет окупаться
источник

П

Павел in KVM (PVE/oVirt etc)
для небольших инсталляций (5-7 узлов хранилища) — скорее будет избыточен, лучше в сторону linstor
источник

NU

Nikita Uchaev in KVM (PVE/oVirt etc)
Ясн, не убежать от линстора.
Буду развёртывать. Благодарю.
источник

VM

Vladimir Manko in KVM (PVE/oVirt etc)
Павел
да, ceph наверное туда где нужны большие по настоящему хранилища, там эта его сложность будет окупаться
я бы добавил цеф туда где будет постоянный рост и расширение, с гластером не все так просто когда надо накинуть серваков, с цефом все банальнее\
источник

П

Павел in KVM (PVE/oVirt etc)
ну gluster меня вообще как-то тревожит )
источник

VM

Vladimir Manko in KVM (PVE/oVirt etc)
с линстором все ок, но там внизу либо лвм либо зфс и долбанный контроллер которому надо обеспечивать собственную отказоустойчивость, чего не надо делать в цеф и гластер
источник

П

Павел in KVM (PVE/oVirt etc)
мне linstor который на DRBD (с 9 версии вроде как там нормальная уже версия) — надежнее
источник

П

Павел in KVM (PVE/oVirt etc)
контролле легкий у них, насколько я помню, поправьте если что, и легко дублируется и восстанавливается...
источник

П

Павел in KVM (PVE/oVirt etc)
тут же в ceph вся эта штука про отсутствие контроллера — во многом иллюзия, т.е. оно конечно работает, но дается очень серьезными издержками и необходимостью отрабатывать сложные ситуации расщепления сети и все такое... как по мне, для большинства случаев отдельный контроллер даже скорее плюс, одна контроллируемая точка отказа
источник

VM

Vladimir Manko in KVM (PVE/oVirt etc)
Павел
контролле легкий у них, насколько я помню, поправьте если что, и легко дублируется и восстанавливается...
основная проблема не в контролле а в холодном старте хранилища, т.е. если все по тем или иным причинам вырубилось, то без контроллера хранилище не стартанет и прокс тупо не увидит диски виртуалок. Поэтому для контроллера надо решение по обеспечению его HA, то что у линстора в доке, у меня в предыдущей версии не заработало как надо при имитации полного отключения питания на всех нодах.
источник

VM

Vladimir Manko in KVM (PVE/oVirt etc)
Линсторовцы предлагают держать контроллер локально в самом проксе (редхатовцы к слову у  себя в доке по гиперконвергнетной виртуализации пишут что так делать не надо), после холодного старта стартует локальный доступ к хранилищу, запускается виртуалка контрллера, и он восстанавливает хранилище для нод. Вот у меня оно не работало =( Хз как в 6-м проксе (я делал в 5-м) и с обновленным контроллером. Еще не тестил. kvaps говорил что много чего пофиксили.
источник