Size: a a a

VictoriaMetrics_ru

2019 May 28

Ei

Evgeny ihard in VictoriaMetrics_ru
кроме как писать в 2 ноды кластера одновременно пока не вижу вариантов, те балансировщик, в каждом дц за ним vminsert который пишет в свой и второй дц - крест на крест получается
источник

AN

Artem Navoiev in VictoriaMetrics_ru
если prometheus то можно просто 2 раза указать в  remote_write секции 2 URL для разных DC
источник

Ei

Evgeny ihard in VictoriaMetrics_ru
это не очень удобно + кроме прома есть еще telegraf c influx output
источник

AN

Artem Navoiev in VictoriaMetrics_ru
тогда да первый вариант значительно лучше
источник

VP

Vsevolod Polyakov in VictoriaMetrics_ru
ну в первом варианте есть нюанс, например все балансировщики для графита поддерживают какое-то кеширование запросов
источник

VP

Vsevolod Polyakov in VictoriaMetrics_ru
то есть если у нас удаленный кластер пару минут не доступен, то метрики не потеряются, а просто будут задержаны на балансировщике до доступности кластера
источник

AV

Aliaksandr Valialkin in VictoriaMetrics_ru
вышел багфикс-релиз v1.18.7, в котором исправлено повышенное потребление оперативной памяти и процессора при вставки больших объемов данных. Это особо заметно при вставке данных по influx, graphite и opentsdb-протоколам. В tsbs бенчмарке занимаемая память уменьшилась с гигабайта до 250 мегабайт во время записи данных. см. https://github.com/VictoriaMetrics/VictoriaMetrics/releases .
источник

L

LeiDruid in VictoriaMetrics_ru
Igor Borodin
у вас конфигурейшн менеджмента не завезли?
поддержу коллегу. Много кейсов, когда пакетами удобно.
источник

AV

Aliaksandr Valialkin in VictoriaMetrics_ru
Evgeny ihard
кроме как писать в 2 ноды кластера одновременно пока не вижу вариантов, те балансировщик, в каждом дц за ним vminsert который пишет в свой и второй дц - крест на крест получается
т.е. репликация, как в кликхаусе - для каждой шарды явно указываются адреса реплик, которые могут находиться в других датацентрах, с автоматическим восстановлением реплик после повреждения? Я тоже пока склоняюсь к такой репликации, только не хочу тянуть зукипер или что-то похожее в систему, т.к. из-за него больше всего проблем, если судить по вопросам в канале кликхауса
источник

Ei

Evgeny ihard in VictoriaMetrics_ru
Aliaksandr Valialkin
т.е. репликация, как в кликхаусе - для каждой шарды явно указываются адреса реплик, которые могут находиться в других датацентрах, с автоматическим восстановлением реплик после повреждения? Я тоже пока склоняюсь к такой репликации, только не хочу тянуть зукипер или что-то похожее в систему, т.к. из-за него больше всего проблем, если судить по вопросам в канале кликхауса
Да, в идеале хочется именно этого
источник

Ei

Evgeny ihard in VictoriaMetrics_ru
А сейчас vminsert как себя будет вести если одна из vmstorage будет недоступна будет кэшировать и ждать или будет все писать в доступную?
источник

AV

Aliaksandr Valialkin in VictoriaMetrics_ru
будет писать в доступную
источник

IB

Igor Borodin in VictoriaMetrics_ru
@valyala смотрели в сторону Serf?
источник

Ei

Evgeny ihard in VictoriaMetrics_ru
Aliaksandr Valialkin
будет писать в доступную
Хорошо
источник

AV

Aliaksandr Valialkin in VictoriaMetrics_ru
Igor Borodin
@valyala смотрели в сторону Serf?
нет, сейчас гляну, что это )
источник

IB

Igor Borodin in VictoriaMetrics_ru
либка, на основе которой кластерная логика консула построена
источник

IB

Igor Borodin in VictoriaMetrics_ru
ну и на том же etcd можно делать кластеризацию, но тогда придется кучу своего кода писать
источник

AN

Artem Navoiev in VictoriaMetrics_ru
Там рафт
источник

IB

Igor Borodin in VictoriaMetrics_ru
с чем вы вроде успешно справляетесь))
источник

IB

Igor Borodin in VictoriaMetrics_ru
в etcd? да, рафт
источник