Size: a a a

VictoriaMetrics_ru

2019 May 15

VP

Vsevolod Polyakov in VictoriaMetrics_ru
а ваша кластерная версия поддерживает поиск точек из разных источников? Например у меня есть метрика и часть точек за какой-то период есть на одной ноде, а часть на другой, потому что инстансу было плохо, например.
источник

AN

Artem Navoiev in VictoriaMetrics_ru
кластерная версия использует отсортированный лейбл и констистент хэшинг для нахождения правильной ноды - если нода недоступна то пишет в соседнюю
источник

AN

Artem Navoiev in VictoriaMetrics_ru
читается со всех нод - если данные с какой либо ноды невозможно получить то запрос помечается как partial
источник

VP

Vsevolod Polyakov in VictoriaMetrics_ru
ну запись по какому-то хешрингу это норм, мне интереснее чтение - то есть если есть метрики на двух нодах, то VM сделает merge самостоятельно?
источник

AN

Artem Navoiev in VictoriaMetrics_ru
да (если это кластерная версия и vmselect знает об этих storage нодах )
источник

VP

Vsevolod Polyakov in VictoriaMetrics_ru
а как вы делаете ребалансировку кластера с добавлением новой ноды? Или не делаете?
источник

AN

Artem Navoiev in VictoriaMetrics_ru
1/n новых запросов уйдут на новую ноду, данные уже записанные мигрировать не будут
источник

VP

Vsevolod Polyakov in VictoriaMetrics_ru
имею ввиду ребалансировку данных. Впрочем в случае когда есть merge ребалансировку можно и не делать в большинстве случае
источник

VP

Vsevolod Polyakov in VictoriaMetrics_ru
ну да, хотя когда у клиента были машинки с фиксировнными по размеру hdd это было надо. Впрочем, думаю, для этого и нужен платный support
источник

AV

Aliaksandr Valialkin in VictoriaMetrics_ru
кластеная версия заточена под диски google compute engine, которые имеют два полезных свойства:
1) их можно увеличивать без остановки системы. Максимальный размер диска на один инстанс - 64ТБ. Это означает, что не нужно переплачивать за неиспользуемое место на дисках - достаточно вовремя увеличивать их размер.
2) они защищены от повреждения данных в случае аппаратных сбоев. Это означает, что не нужно заморачиваться с репликацией данных.
источник

jj

jagga jagga in VictoriaMetrics_ru
я правильно понимаю, что VM не предназначена для отображения realtime-метрик, а только для быстрой обработки исторических данных?
источник

AN

Artem Navoiev in VictoriaMetrics_ru
VM прекрасно справляется с этой задачей - по бенчмаркам на 1 порядок лучше чем прометеус
источник

jj

jagga jagga in VictoriaMetrics_ru
хмм
источник

jj

jagga jagga in VictoriaMetrics_ru
проверял вчера на jmeter - пишу по графиту в VM, пока не остановлю сценарий - в графане графиков нет, что я делаю не так?
источник

L

LeiDruid in VictoriaMetrics_ru
jagga jagga
я правильно понимаю, что VM не предназначена для отображения realtime-метрик, а только для быстрой обработки исторических данных?
Мы уже давно сменили датасорс, работает прекрасно
источник

jj

jagga jagga in VictoriaMetrics_ru
какой датасорс выбирать? выбирал прометеусовский
источник

VP

Vsevolod Polyakov in VictoriaMetrics_ru
Та не, все работает и даже очень быстро. Писал как tsdb и так пром
источник

AN

Artem Navoiev in VictoriaMetrics_ru
источник

jj

jagga jagga in VictoriaMetrics_ru
там я был
источник

AV

Aliaksandr Valialkin in VictoriaMetrics_ru
jagga jagga
проверял вчера на jmeter - пишу по графиту в VM, пока не остановлю сценарий - в графане графиков нет, что я делаю не так?
если вы пишете данные в графит-протоколе через одно tcp-подключение к VM? Такие данные попадают в сторедж либо после закрытия подключения либо после достижения определенного объема. Предполагается, что графит-агенты должны создавать новые tcp-подключения для записи новых данных в VM, либо записывать их по udp. Подумаю над тем, чтобы записывать накопленные данные спустя короткое время
источник