Size: a a a

Ceph — русскоговорящее сообщество

2020 June 07

N

Nikita in Ceph — русскоговорящее сообщество
Alexey Shanko
к s3 ты с любого пода можешь обращаться, а к rbd только с того пода куда он будет примонтирован.
ну и прибьешь стейтфулсет, а rbd разделы потом хз как цеплять к тем же стейтфулам.
возможно ceph-csi как-то хранит это сопоставление в объектах rados к какому стейтфулсету какой раздел цеплять, но в rbd-provisioner этого я не нашел.
и с s3 контейнеры реально stateless и можно кластер весь дропнуть и накатить в случае проблем, а данные в s3 остануться. с rbd такое счастье только с бекап-тулзами типа velero может сработать. и всё это, естественно, при условии цефа вне кубера)
Связка rook и provision volme точно создает каждому pod в statefulset свой rbd, который не удаляется при скейлинге и вроде даже при удалении statefulset (в документации kubernetes можно уточнить наверняка).
источник

AS

Alexey Shanko in Ceph — русскоговорящее сообщество
Nikita
Связка rook и provision volme точно создает каждому pod в statefulset свой rbd, который не удаляется при скейлинге и вроде даже при удалении statefulset (в документации kubernetes можно уточнить наверняка).
при политике Retain в rbd provisioner и скорее всего в ceph-csi такое же поведение - все rbd остаются. вопрос в том можно ли эти rbd использовать повторно при включении statefulset с тем же именем что и удаленный. и можно ли это сделать в rook?
источник

N

Nikita in Ceph — русскоговорящее сообщество
Alexey Shanko
при политике Retain в rbd provisioner и скорее всего в ceph-csi такое же поведение - все rbd остаются. вопрос в том можно ли эти rbd использовать повторно при включении statefulset с тем же именем что и удаленный. и можно ли это сделать в rook?
> вопрос в том можно ли эти rbd использовать повторно при включении statefulset с тем же именем что и удаленный

Не проверял, но полагаю, что нет - какой-нибудь uuid наверняка изменится при создании нового statefulset, и никто (kubernetes, csi, etc.) скорее всего не будет знать, что диски удаленного statefulset как-то связаны с создаваемым statefulset.

Другой вопрос, а так ли критична для задачи @Cloud66 сохранение связи между rbd и подами при удалении statefulset, или ему вообще лучше всё же cephfs.
источник

t

tsla in Ceph — русскоговорящее сообщество
Vadim
Red hat ceph storage сильно отличается от оригинала?
Тех поддержкой, я уже цены скидывал
источник

t

tsla in Ceph — русскоговорящее сообщество
Виталий На Заборе
а, это закрытый кубер от рхела?
Ага, есть его бесплатный аналог - - -  okd, продукт больше на облачных провайдеров или тупо операторов, которым некогда самим создавать ПОДы под каждый департамент
источник

t

tsla in Ceph — русскоговорящее сообщество
Виталий На Заборе
Да оно вообще и быстрее будет как бы
Разве? У меня холодные данные на нфс шару пишутся 200 мбс, при цеффс тупо 120мбс
источник

t

tsla in Ceph — русскоговорящее сообщество
Или я что-то не так делаю и у меня затык на мдс?
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
tsla
Разве? У меня холодные данные на нфс шару пишутся 200 мбс, при цеффс тупо 120мбс
Я про с3 vs cephfs
Но так-то думаю что может и затык, т.к линейно там вроде неплохо все было
источник

t

tsla in Ceph — русскоговорящее сообщество
Виталий На Заборе
cephfs fuse: приложение - ядро - fuse - mds - osd
S3: приложение - rgw - osd
А вот голый радос: приложение - сразу osd
Вот голый радос лучше всего конечно :)
Разве не, приложение - user space -  vfs - kernel - fuse - mds - osd?
источник

t

tsla in Ceph — русскоговорящее сообщество
Виталий На Заборе
Я про с3 vs cephfs
Но так-то думаю что может и затык, т.к линейно там вроде неплохо все было
Ок, понял

Кто нить сравнивал s3 с нфс?
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
tsla
Разве не, приложение - user space -  vfs - kernel - fuse - mds - osd?
Ну типа приложение это userspace, а vfs это ведро
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
tsla
Разве? У меня холодные данные на нфс шару пишутся 200 мбс, при цеффс тупо 120мбс
fio забенчи поверх cephfs
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
fio -name=test -direct=1 -ioengine=libaio -iodepth=16 -rw=write -bs=4M -size=10G -filename=testfile
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
tsla
Ок, понял

Кто нить сравнивал s3 с нфс?
Cephfs плюс миниум равнозначно против ganesha+cephfs. Но при этом более прогназируема
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Меньше слоев проще траблшутить
источник

R

Ren in Ceph — русскоговорящее сообщество
Приветствую!

Хотел задать вопрос следующего характера (не пинайте строго): есть возможность в Ceph выбрать конкретный OSD для записи даных?
источник

V

Vadim in Ceph — русскоговорящее сообщество
Alexander Mamahtehok
Cephfs плюс миниум равнозначно против ganesha+cephfs. Но при этом более прогназируема
Вот тоже не понял в чем разница маунтить cephfs как ceph или как nfs
источник

DK

Denis Kondratenko in Ceph — русскоговорящее сообщество
перформанс дроп значительный, и экстра хоп
источник

V

Vadim in Ceph — русскоговорящее сообщество
Nikita
Почему тогда рассматриваете только rbd vs s3, а не cephfs? Нагрузка большая?
cephfs тоже на рассмотрении и пока склоняюсь что лучшим решением будеь
источник

DK

Denis Kondratenko in Ceph — русскоговорящее сообщество
источник