Size: a a a

Ceph — русскоговорящее сообщество

2021 January 11

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Roman
Какие подводные камни могут быть при хранении миллиардов (на текущий момент их 1.5 и количество будет расти) файлов размером 1 кб - 1 Мб в cephfs на hdd? Под block.db будут sata ssd (обычные интелы dc 4510), на таких же будут mds.
Стоит ли использовать s3?
однозначно s3
источник

R

Roman in Ceph — русскоговорящее сообщество
Irek Fasikhov
однозначно s3
А кроме этого, на какие параметры пула стоит обратить внимание? Настройки стандартные 3/2, сеть 10Г
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Roman
А кроме этого, на какие параметры пула стоит обратить внимание? Настройки стандартные 3/2, сеть 10Г
пул индексов на ssd
источник

R

Roman in Ceph — русскоговорящее сообщество
Это будет)
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
еще есть параметр bluestore_min_alloc_size, но это уже статистика нужна
источник

R

Roman in Ceph — русскоговорящее сообщество
Ок, спасибо за совет.
Буду пинать разрабов чтобы перейти на s3)
источник

NA

Nurmukhamed Artykaly in Ceph — русскоговорящее сообщество
Roman
Какие подводные камни могут быть при хранении миллиардов (на текущий момент их 1.5 и количество будет расти) файлов размером 1 кб - 1 Мб в cephfs на hdd? Под block.db будут sata ssd (обычные интелы dc 4510), на таких же будут mds.
Стоит ли использовать s3?
В aws s3 раньше были проблемы с производительности, когда файлы назывались одинаково с начала, например, 2020-01-11-09-20-somefile.txt. И так ещё миллион файлов. И все они оказывались в одной партиции (partition) в корзине (bucket).

Поэтому aws рекомендовал раскидывать файлы по разным партициям, например, брать хеш от файла, сокращать хеш до 4 символов и вставлять спереди имени файла, hash-2020-01-11-09-20-somefile.txt
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Roman
Какие подводные камни могут быть при хранении миллиардов (на текущий момент их 1.5 и количество будет расти) файлов размером 1 кб - 1 Мб в cephfs на hdd? Под block.db будут sata ssd (обычные интелы dc 4510), на таких же будут mds.
Стоит ли использовать s3?
Если есть возможность перейти на с3 то лучше на с3 и сразу научите приклад раскладыватся по бакетам.  В целом для цеффс пару ярдов не большая проблема, просто мдс нежнее ргв :) ну и да в цеффс пару ярдов в одну диру тоже сувать не надо :)
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Нигде пару миллиардов файлов не надо "сувать в одну диру" - readdir с ума сойдет.
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Artemy Kapitula
Нигде пару миллиардов файлов не надо "сувать в одну диру" - readdir с ума сойдет.
К сожалению бывают индивиды :)
источник

R

Roman in Ceph — русскоговорящее сообщество
Пока в одной директории максимум около 100 млн лежит)  это тоже будем устранять.  
По имени - проблемы нет, но так же учту.
Спасибо)
источник

NA

Nurmukhamed Artykaly in Ceph — русскоговорящее сообщество
Roman
Пока в одной директории максимум около 100 млн лежит)  это тоже будем устранять.  
По имени - проблемы нет, но так же учту.
Спасибо)
Почему бы сразу не сделать структуру папок как сбалансированное бинарное или иное дерево, желательно, чтобы приклад ещё умел балансировать файлы внутри папок. Чтобы доступ до любого файла был через 2-3 папки/подпапки

Для примера можно взять кеш файлы Squid. Там изначально правильно сделано.
источник

R

Roman in Ceph — русскоговорящее сообщество
Nurmukhamed Artykaly
Почему бы сразу не сделать структуру папок как сбалансированное бинарное или иное дерево, желательно, чтобы приклад ещё умел балансировать файлы внутри папок. Чтобы доступ до любого файла был через 2-3 папки/подпапки

Для примера можно взять кеш файлы Squid. Там изначально правильно сделано.
потому что это всратое легаси, проёб архитектуры (да и менялось 100 раз уже) и никто не предполагал, что взлетит и будет так. Но ничего, переделываем и идём к
> любого файла был через 2-3 папки/подпапки
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Roman
потому что это всратое легаси, проёб архитектуры (да и менялось 100 раз уже) и никто не предполагал, что взлетит и будет так. Но ничего, переделываем и идём к
> любого файла был через 2-3 папки/подпапки
Если вы переделываете в с3 то там достаточно уметь в мультиьакет
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Структура там не нужна
источник

R

Roman in Ceph — русскоговорящее сообщество
ок
источник

A

Alex in Ceph — русскоговорящее сообщество
Alexander mamahtehok
Структура там не нужна
Если только листинг никто посмотреть не захочет))
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
Roman
потому что это всратое легаси, проёб архитектуры (да и менялось 100 раз уже) и никто не предполагал, что взлетит и будет так. Но ничего, переделываем и идём к
> любого файла был через 2-3 папки/подпапки
Что, сквид моложе вашего легаси?
источник

AS

Alexey Shanko in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
Что, сквид моложе вашего легаси?
зачем вы тгавите(c)
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
бладж. какой параметр отвечает за попадание pg в 611 pgs not deep-scrubbed in time?
нет, это не osd_deep_scrub_interval -- он у меня 30 суток, а столько еще не прошло.
источник