Size: a a a

2020 April 21

SD

Stepan Dudnik in uptime.community
Детально конфигураций не прорабатывали
источник

GM

Gleb Mekhrenin in uptime.community
я сегодня рассказывал уже в одном чате про дистрибьютед кластер, но лучше автора процитирую
источник

S

Slach in uptime.community
Stepan Dudnik
Детально конфигураций не прорабатывали
а сколько вы хранить то в s3 собираетесь?
насколько это важные данные?
источник

SD

Stepan Dudnik in uptime.community
Терабайты данных
источник

GM

Gleb Mekhrenin in uptime.community
Stepan Dudnik
Детально конфигураций не прорабатывали
Minio in this case is working as intended, minio cannot be expanded or shrinkable in this manner. Minio is different by design. It is designed to solve all the needs of a single tenant. Spinning minio per tenant is the job of external orchestration layer. Any addition and removal means one has to rebalance the nodes. When Minio does it internally, it behaves like blackbox. It also adds significant complexity to Minio. Minio is designed to be deployed once and forgotten. We dont even want users to be replacing failed drives and nodes. Erasure code has enough redundancy built it. By the time half the nodes or drives are gone, it is time to refresh all the hardware. If the user still requires rebalancing, one can always start a new minio server on the same system on a different port and simply migrate the data over. It is essentially what minio would do internally. Doing it externally means more control and visibility. Minio is meant to be deployed in static units per tenant.
источник

SD

Stepan Dudnik in uptime.community
Терять данные не хотим
источник

VR

Vladimir Renskiy in uptime.community
Профиль нагрузки чтение/запись
сколько РПС
Откуда доступ
источник

SD

Stepan Dudnik in uptime.community
Gleb Mekhrenin
Minio in this case is working as intended, minio cannot be expanded or shrinkable in this manner. Minio is different by design. It is designed to solve all the needs of a single tenant. Spinning minio per tenant is the job of external orchestration layer. Any addition and removal means one has to rebalance the nodes. When Minio does it internally, it behaves like blackbox. It also adds significant complexity to Minio. Minio is designed to be deployed once and forgotten. We dont even want users to be replacing failed drives and nodes. Erasure code has enough redundancy built it. By the time half the nodes or drives are gone, it is time to refresh all the hardware. If the user still requires rebalancing, one can always start a new minio server on the same system on a different port and simply migrate the data over. It is essentially what minio would do internally. Doing it externally means more control and visibility. Minio is meant to be deployed in static units per tenant.
Написанное немного пугает с точки зрения роста по объемам. Если я правильно понял смысл
источник

S

Slach in uptime.community
Stepan Dudnik
Терабайты данных
терабайты не для minio
идите в ceph
или в linstor https://github.com/kvaps/kube-linstor
а у вас продакшен какой? кубы или что-то свое?
источник

SD

Stepan Dudnik in uptime.community
Vladimir Renskiy
Профиль нагрузки чтение/запись
сколько РПС
Откуда доступ
Основная нагрузка по чтению. РПС - хз. Доступ - внутри сети от приложений
источник

GM

Gleb Mekhrenin in uptime.community
Stepan Dudnik
Написанное немного пугает с точки зрения роста по объемам. Если я правильно понял смысл
это касается дистрибьютед режима, если в текущем кластере кончилось место делаешь новый кластер и через федерацию из него данные читаешь, а запись лочится
источник

VR

Vladimir Renskiy in uptime.community
Линстор это бекенд для хранения.
Но не для S3  апихи.
источник

S

Slach in uptime.community
Vladimir Renskiy
Линстор это бекенд для хранения.
Но не для S3  апихи.
да, но может там надо не обязательно S3 ;)
источник

SD

Stepan Dudnik in uptime.community
Slach
терабайты не для minio
идите в ceph
или в linstor https://github.com/kvaps/kube-linstor
а у вас продакшен какой? кубы или что-то свое?
С точки зрения ceph - здесь периодически проскальзывают кровь/кишки.
источник

SD

Stepan Dudnik in uptime.community
А есть где-то прямое сравнение вариантов?
источник

SD

Stepan Dudnik in uptime.community
Slach
да, но может там надо не обязательно S3 ;)
Не. Я сейчас предметно именно про S3
источник

SD

Stepan Dudnik in uptime.community
Stepan Dudnik
А есть где-то прямое сравнение вариантов?
Ну просто вряд ли только у меня такие вопросы возникали.
источник

VR

Vladimir Renskiy in uptime.community
Если ты не знаешь РПСов то ты не виберешь  сервис для С3 потоум как это одна из основных метрик.
источник

GM

Gleb Mekhrenin in uptime.community
Stepan Dudnik
А есть где-то прямое сравнение вариантов?
в южном парке серия была под номером 808 - Douche and Turd
источник

EO

Eric Oldmann in uptime.community
Есть же S3 интерфейс для ZoL
источник