Size: a a a

Ceph — русскоговорящее сообщество

2020 June 06

ДД

Дмитрий Дятлов... in Ceph — русскоговорящее сообщество
Vadim
как этого добиться?)
Если по существу, разбираться где зависает и почему, искать проблемы в реализации, в клиентском софте. В серверном софте. Сделать багрепорты.
источник

ДД

Дмитрий Дятлов... in Ceph — русскоговорящее сообщество
На крайний случай написать свою самую идеальную систему, которая будет работать всегда и везде )
источник

V

Vadim in Ceph — русскоговорящее сообщество
ну это да
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vadim
только в этом и вижу плюс s3, получать ошибку по таймауту а не падать и не виснуть в попытках сохранить файл на диск
Да оно вообще и быстрее будет как бы
источник

V

Vadim in Ceph — русскоговорящее сообщество
Виталий На Заборе
Да оно вообще и быстрее будет как бы
А почему быстрее
источник
2020 June 07

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Прослоек меньше...
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Там где можно юзать для распределённого хранилища файлов S3, лучше юзать S3. Если можно не S3 а вообще голый радос - то лучше голый радос )))
источник

V

Vadim in Ceph — русскоговорящее сообщество
Для множества мелких файлов вроде не очень сеф? Большой оверхед для хранения метадаты
источник

V

Vadim in Ceph — русскоговорящее сообщество
Для отчетов всяких ворд.пдф
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
cephfs fuse: приложение - ядро - fuse - mds - osd
S3: приложение - rgw - osd
А вот голый радос: приложение - сразу osd
Вот голый радос лучше всего конечно :)
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Правда в cephfs зато получается что трафик не льётся через rgw, а льётся напрямую на osd
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vadim
Для множества мелких файлов вроде не очень сеф? Большой оверхед для хранения метадаты
Для таких нормально думаю, как раз
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Для совсем мелких типа < 64 кб наверное не очень
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Но это уже не ФС, а база данных какая-то
источник

V

Vadim in Ceph — русскоговорящее сообщество
Cephfs пока кажется лучше подходит
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Хотя вон Мамахтёнок держит вроде на cephfs Maildir
источник

МК

Марк ☢️ Коренберг... in Ceph — русскоговорящее сообщество
Виталий На Заборе
Правда в cephfs зато получается что трафик не льётся через rgw, а льётся напрямую на osd
Надо для с3 вот какую хуйню сделать: на каждом ноде поднимать ргв. А на главном ргв куда все клиенты ходют 302 редиректить на тот нод где соотв. Осд. Тогда тот ргв на локалхост срать будет. Но иногда по сети если рейскондишн с определением нода. Тогда будет условно как в цеффс
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Vadim
Для множества мелких файлов вроде не очень сеф? Большой оверхед для хранения метадаты
можно размер "блока"  уменьшить
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Виталий На Заборе
Для совсем мелких типа < 64 кб наверное не очень
можно и меньше
источник

N

Nikita in Ceph — русскоговорящее сообщество
Vadim
да s3 круто, но это приложения дорабатывать, а их много, сейчас умеют только под себя в папку писать
Почему тогда рассматриваете только rbd vs s3, а не cephfs? Нагрузка большая?
источник