Size: a a a

Ceph — русскоговорящее сообщество

2020 June 02

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Lev
Полагаю, данные о занятом и свободном пространстве выдергиваются данным куском кода.  Кто в perl умеет? Расскажите что происходит)) Пробнул посмотреть на rados df --format json  - там все в порядке с размером пула
sub status {
   my ($class, $storeid, $scfg, $cache) = @_;


   my $rados = &$librados_connect($scfg, $storeid);
   my $df = $rados->mon_command({ prefix => 'df', format => 'json' });

   my ($d) = grep { $_->{name} eq $scfg->{pool} } @{$df->{pools}};

   # max_avail -> max available space for data w/o replication in the pool
   # bytes_used -> data w/o replication in the pool
   my $free = $d->{stats}->{max_avail};
   my $used = $d->{stats}->{stored} // $d->{stats}->{bytes_used};
   my $total = $used + $free;
   my $active = 1;

   return ($total, $free, $used, $active);
}
ну понятно - он считает объём хранимых данных (не raw место). ну в таком случае может уменьшаться из-за неравномерного распределения по осд
источник

L

Lev in Ceph — русскоговорящее сообщество
По osd действительно данные неравномерно распределены. Значит ли это что действительно доступного места осталось столько, сколько говорит pve? Или это баг отображения и можно пофиксить?
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Lev
По osd действительно данные неравномерно распределены. Значит ли это что действительно доступного места осталось столько, сколько говорит pve? Или это баг отображения и можно пофиксить?
Действительно значит. Неравномерность уменьшает эффективность использования пространства - когда любой из осд упрётся в 95%, запись встанет, даже если на всех остальных будет по 50% свободно
источник

L

Lev in Ceph — русскоговорящее сообщество
Понял, спс
источник
2020 June 03

MP

Mike Perez in Ceph — русскоговорящее сообщество
источник

МК

Марк ☢️ Коренберг... in Ceph — русскоговорящее сообщество
Hi. What languages do you speak ?
источник

MP

Mike Perez in Ceph — русскоговорящее сообщество
english
источник

МК

Марк ☢️ Коренберг... in Ceph — русскоговорящее сообщество
Okay. How did you mange to find the group?
источник

t

tsla in Ceph — русскоговорящее сообщество
Mike, we're rly confused about...
https://t.me/ceph_ru/193581

Pls, could u explain the reason to depricate cephdeploy?
источник

t

tsla in Ceph — русскоговорящее сообщество
Also, didn't catch why using under k8s is preferred way?
источник

t

tsla in Ceph — русскоговорящее сообщество
Марк ☢️ Коренберг
Okay. How did you mange to find the group?
Here is 'partner' link at this chat @ceph_users)
источник

MP

Mike Perez in Ceph — русскоговорящее сообщество
Марк ☢️ Коренберг
Okay. How did you mange to find the group?
It was mentioned to me by a friend
источник

МК

Марк ☢️ Коренберг... in Ceph — русскоговорящее сообщество
ёпт. 50 избранных цефоёбов
источник

MP

Mike Perez in Ceph — русскоговорящее сообщество
ceph-deploy is no longer maintained. We recommend using cephadm https://ceph.io/ceph-management/introducing-cephadm/
источник

MP

Mike Perez in Ceph — русскоговорящее сообщество
Kubernetes is not required to use cephadm. If you are using Kubernetes, we recommend using the Rook project https://rook.io/docs/rook/v1.3/ceph-storage.html
источник

t

tsla in Ceph — русскоговорящее сообщество
Dude already have read... But we're confused that you guys recommend to use containers
источник

t

tsla in Ceph — русскоговорящее сообщество
Isn't better to use less layers?
источник

t

tsla in Ceph — русскоговорящее сообщество
Docker is additional layer and point of failure
источник

MP

Mike Perez in Ceph — русскоговорящее сообщество
tsla
Dude already have read... But we're confused that you guys recommend to use containers
Containers allow for easier management of dependencies and upgrades. If an upgrade goes wrong, you just switch back over to a backup of a previous container running daemon
источник

MP

Mike Perez in Ceph — русскоговорящее сообщество
That is true that docker is another thing that could fail
источник