Size: a a a

Ceph — русскоговорящее сообщество

2020 July 04

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
а что, ceph-volume симлинки не переваривает, если это не от llvm?
источник

VP

Vladimir Pankin in Ceph — русскоговорящее сообщество
шалом православные, решил пошатать этот ваш цеф, раскатал всё через ceph-deploy, все службы стартанули, ФС создал (MDS тоже), статус HEALTH_OK, при монтировании ошибка Permission denied, цепляюсь с токеном админа (который в каталоге с ceph-deploy) и по сгенеренному через auth get-or-create. куда копнуть?
источник

w

werter78 in Ceph — русскоговорящее сообщество
Всем привет
источник

w

werter78 in Ceph — русскоговорящее сообщество
Можно ли прикрутить vdo от редхата поверх ceph?
источник

B

BJIaguMuP in Ceph — русскоговорящее сообщество
Vladimir Pankin
шалом православные, решил пошатать этот ваш цеф, раскатал всё через ceph-deploy, все службы стартанули, ФС создал (MDS тоже), статус HEALTH_OK, при монтировании ошибка Permission denied, цепляюсь с токеном админа (который в каталоге с ceph-deploy) и по сгенеренному через auth get-or-create. куда копнуть?
selinux permission?
источник

VP

Vladimir Pankin in Ceph — русскоговорящее сообщество
не, просто токены генерил неправильно, уже прочитал доку
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
окей, тэги в lvm поменял, не так и сложно вышло
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
а поясните мне, как такое может быть:
PG    OBJECTS DEGRADED MISPLACED
6.0    461661        0   1368063
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
как MISPLACED может быть больше OBJECTS?!
источник

OS

Oleg Sentsov in Ceph — русскоговорящее сообщество
Народ, всех приветствую. У кого-нибудь есть мануал для новичков как поднять Цеф лишь на одной виртуальной машине? Диски к виртуалке подключены.
источник

AP

Alexander Patrakov in Ceph — русскоговорящее сообщество
Я поднимал через ceph-deploy
источник

AP

Alexander Patrakov in Ceph — русскоговорящее сообщество
После создания конфига, но перед копированием в /etc/ceph (т.е. перед созданием mon'а) надо добавить туда вот эту магию, ceph-deploy ее скопирует в /etc/ceph:
osd_memory_target = 939524096
osd_crush_chooseleaf_type = 0
osd_pool_default_size = 1
osd_pool_default_min_size = 1
источник

Д

Дэн in Ceph — русскоговорящее сообщество
Коллеги не подскажите как настроить время через которое начинается ребаланс данных при выпадении одной ноды (по дефолту вроде 5 минут) ?
источник
2020 July 05

VP

Vladimir Pankin in Ceph — русскоговорящее сообщество
а как нынче называется ceph_monitor_latency_seconds?
источник

VP

Vladimir Pankin in Ceph — русскоговорящее сообщество
в модуле промитиуса
источник
2020 July 06

NN

Nikolay Nestyurkin in Ceph — русскоговорящее сообщество
добрый вечер
нужно помощь, mds перешел в состояние up:reply и cephfs не монтируется

подскажите куда копать?
источник

AP

Alexander Patrakov in Ceph — русскоговорящее сообщество
логи, см. https://docs.ceph.com/docs/master/rados/troubleshooting/log-and-debug/ как настроить степень подробностей
источник

AP

Alexander Patrakov in Ceph — русскоговорящее сообщество
и еще - может mds только жертва какой-то еще поломки, например, osd? ceph health detail
источник

NN

Nikolay Nestyurkin in Ceph — русскоговорящее сообщество
2020-07-06 00:26:00.552 7ff80a238700  1 mds.0.126063 handle_mds_map i am now mds.0.126063
2020-07-06 00:26:00.552 7ff80a238700  1 mds.0.126063 handle_mds_map state change up:boot --> up:replay
2020-07-06 00:26:00.552 7ff80a238700  1 mds.0.126063 replay_start
2020-07-06 00:26:00.552 7ff80a238700  1 mds.0.126063  recovery set is.
2020-07-06 00:26:00.552 7ff80a238700  1 mds.0.126063  waiting for osdmap 14276 (which blacklists prior instance)

вставет все на waiting for osdmap 14276 (which blacklists prior instance)
источник

NN

Nikolay Nestyurkin in Ceph — русскоговорящее сообщество
cluster:
   id:     ef0d6b8c-6d4f-44b8-a76c-3f6f1b6fbe8d
   health: HEALTH_WARN
           1 filesystem is degraded
           1 pools have many more objects per pg than average
           1 pools have too few placement groups
           1 pools have too many placement groups

 services:
   mon: 3 daemons, quorum fxr-pve1,fxr-pve2,fxr-pve3 (age 46m)
   mgr: fxr-pve1(active, since 46m), standbys: fxr-pve3, fxr-pve2
   mds: cephfs:1/1 {0=fxr-pve1=up:replay} 2 up:standby
   osd: 30 osds: 30 up (since 46m), 30 in

 data:
   pools:   6 pools, 933 pgs
   objects: 15.89M objects, 34 TiB
   usage:   103 TiB used, 134 TiB / 237 TiB avail
   pgs:     929 active+clean
            4   active+clean+scrubbing+deep
источник