Size: a a a

Ceph — русскоговорящее сообщество

2020 June 05

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vadim
коллеги для сервисов крутящихся в кубернейтс какой лучший способ дать им хранилище для файлов, как RBD диск через CSI драйвер подключать persistent volume или все таки как object store использовать через S3 ?
лучше конечно через S3 (если можно)
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vadim
и ceph в самом кубере нормально поднимать операторами типа rock или не лучшая идея и все таки отдельно его разворачивать
хуёвая затея, хотя по ходу форсится аффтарами. лучше отдельно
источник

V

Vadim in Ceph — русскоговорящее сообщество
можешь подсказать по обоим пунктам свое мнение? почему S3 предпочтительнее RBD и почему не в кубере
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vadim
можешь подсказать по обоим пунктам свое мнение? почему S3 предпочтительнее RBD и почему не в кубере
потому что кубер - ебанутая переусложнённая система, цеф - тоже довольно ебанутая и переусложнённая, а вместе - ко-ко-комбо
источник

V

Vadim in Ceph — русскоговорящее сообщество
тож так думаю да)
источник

V

Vadim in Ceph — русскоговорящее сообщество
субд отдельно, файлы отдельны, в кубере только stateless
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
а S3 лучше как минимум потому, что RBD в кубере (да и цеффс) это кернел драйвер
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
и если цеф кластеру становится плохо тогда, когда кто-то что-то из него читает, то процесс может залипнуть в D состоянии, из которого его выведет только перезагрузка
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
кубер даже контейнер убить не сможет
источник

V

Vadim in Ceph — русскоговорящее сообщество
с nfs в hard режиме также
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Александр Скобельцын
Ребят, доброго времени суток. Есть идеи, как отыскать оставшиеся пару недобитых Jewel-клиентов?

   "client": [
       {
           "features": "0x27018fb86aa42ada",
           "release": "jewel",
           "num": 2
       },
       {
           "features": "0x2f018fb86aa42ada",
           "release": "luminous",
           "num": 130

Команда ceph tell mds.X client ls не  показывает ни одного клиента (все клиенты centos 7)  с версией ядра ниже 5.3.7-elrepo.
ceph auth инфу про коннект клиентов не выводит, только факт наличия кейринга.
RBD все специально отмапил...
Что, где еще посмотреть можно??
ceph на мдс
sudo ceph daemon mds.$(hostname) session ls
источник

V

Vadim in Ceph — русскоговорящее сообщество
если нфс отваливается подключенный как persistent volume то весь кластер падает
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vadim
если нфс отваливается подключенный как persistent volume то весь кластер падает
вот, но в nfs хоть софт режим есть, а в цефе нет))
источник

V

Vadim in Ceph — русскоговорящее сообщество
печально
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
единственно я вот не знаю - если в кубер засунуть какие-нибудь qemu microvm вместо контейнеров, тогда он будет юзать librbd и можно будет убить процесс qemu
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
но это я так понимаю извращаться надо
источник

V

Vadim in Ceph — русскоговорящее сообщество
это нафиг
источник

V

Vadim in Ceph — русскоговорящее сообщество
D состояние процесса это что&
источник

АС

Александр Скобельцын... in Ceph — русскоговорящее сообщество
Alexander Mamahtehok
ceph на мдс
sudo ceph daemon mds.$(hostname) session ls
так то же самое показывает, что и client ls
источник

АС

Александр Скобельцын... in Ceph — русскоговорящее сообщество
Vadim
D состояние процесса это что&
Uninterruptable sleep
источник