Size: a a a

Ceph — русскоговорящее сообщество

2020 May 31

L

LS in Ceph — русскоговорящее сообщество
Artemy Kapitula
Если это SSD - blkdiscard /dev/sdd, если HDD - dd if=/dev/zero of=/dev/sdd bs=1024k count=10
blkdiscard /dev/sdd
отработало, но сделать zap не помогло, та же ошибка
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Дискарднуть и ребутнуть блин. ОЧевидно же
источник

AT

Alex Tkachuk in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
в данной статье говорится (не знаю откуда, мне цифры кажутся завышенными, к примеру я не видел даташитов на 3.5" диски у которых seek time был бы 3.4ms хотя специально искал.) что растут IOPSы суммарные но ценой роста задержки.
Первый рандомно попавшийся hdd 15k (Exos™15E900) говорит о каких то фантастических 2мс, что ещё меньше чем в статье
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
Alex Tkachuk
Первый рандомно попавшийся hdd 15k (Exos™15E900) говорит о каких то фантастических 2мс, что ещё меньше чем в статье
там часто приводят rotation latency не уточняя и приходится долго и упорно выискивать правдк
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
это кстати 2.5"
источник

AT

Alex Tkachuk in Ceph — русскоговорящее сообщество
Древний
Fujitsu MAM3xxx
Seek time: 3.5 ms
Короче, цифры как у любого другого hdd 15k, что собственно в статье и написано


====
Upd
Seagate Cheetah X15 36LP
3.6ms
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
я среди современных искал. древние не интересны
источник

AT

Alex Tkachuk in Ceph — русскоговорящее сообщество
А вы думаете у современных стало всё хуже чем у древних? :)
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
да вот у меня сложилось такое впечетление
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
Alex Tkachuk
Первый рандомно попавшийся hdd 15k (Exos™15E900) говорит о каких то фантастических 2мс, что ещё меньше чем в статье
Avg rotational latency2.02.02.0ms
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
а seek latency не пишут для этого вообще
источник

L

LS in Ceph — русскоговорящее сообщество
Artemy Kapitula
Дискарднуть и ребутнуть блин. ОЧевидно же
да, помогло, спасибо
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
о кей. я тогда продолжу свое занудство. берем кластер на HDD. диски быстрее 7200 не рассматриваем (тогда уж дешевле брать SSD кажется), будем считать что пиковая нагрузка равна максимальной производительности, а средняя -- составляет половину от оной.

так же предположим что нам каким-то магическим образом удалось так отрегулировать интенсивность скрабинга, что он утилизирует все свободные ресурсы.

а теперь внимание вопрос: что будем делать когда диски на 6ТБ и менее будут недоступны? увеличивать интервал скрабинга? переходить на SSD? что-то еще?
источник

SK

S K in Ceph — русскоговорящее сообщество
erasure кто-нибудь юзает в проде?
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
о кей. я тогда продолжу свое занудство. берем кластер на HDD. диски быстрее 7200 не рассматриваем (тогда уж дешевле брать SSD кажется), будем считать что пиковая нагрузка равна максимальной производительности, а средняя -- составляет половину от оной.

так же предположим что нам каким-то магическим образом удалось так отрегулировать интенсивность скрабинга, что он утилизирует все свободные ресурсы.

а теперь внимание вопрос: что будем делать когда диски на 6ТБ и менее будут недоступны? увеличивать интервал скрабинга? переходить на SSD? что-то еще?
почему ты пристал к скрабу? :)
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
S K
erasure кто-нибудь юзает в проде?
rgw да и много. rbd нет
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
LS
подскажите плиз почему так
ceph-volume lvm zap /dev/sdd --destroy
--> Zapping: /dev/sdd
stderr: wipefs: error: /dev/sdd: probing initialization failed: Device or resource busy
--> failed to wipefs device, will try again to workaround probable race condition
stderr: wipefs: error: /dev/sdd: probing initialization failed: Device or resource busy
--> failed to wipefs device, will try again to workaround probable race condition


/dev/sdd не подмонтирован, его только подкинули в систему
ceph-volume lvm zap --destroy /dev/sdd

Почему так - это чтоб мы заебались. У команды 2 режима и они работают по разному. С destroy и без...
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
S K
erasure кто-нибудь юзает в проде?
Я юзаю под рбд немного, но медленно оно шопиздец
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
о кей. я тогда продолжу свое занудство. берем кластер на HDD. диски быстрее 7200 не рассматриваем (тогда уж дешевле брать SSD кажется), будем считать что пиковая нагрузка равна максимальной производительности, а средняя -- составляет половину от оной.

так же предположим что нам каким-то магическим образом удалось так отрегулировать интенсивность скрабинга, что он утилизирует все свободные ресурсы.

а теперь внимание вопрос: что будем делать когда диски на 6ТБ и менее будут недоступны? увеличивать интервал скрабинга? переходить на SSD? что-то еще?
Страдать %)
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
да нет там ни какого страдания, хоть 10-12Тб HDD используй...
источник