Size: a a a

2020 July 22

ЛА

Локоть Анатолий... in Go-go!
Александр Попов
вопрос - насколько быстро вам надо
Она постоянно растет. На данный момент это 80 млн, но прирост по 20 млн в месяц.
источник

АП

Александр Попов... in Go-go!
и вам надо по всему обьему бахать?
источник

ЛА

Локоть Анатолий... in Go-go!
Владимир Столяров
из личного опыта: иногда делают шардинг, иногда - просто перенос холодных данных в другую базу
Спасибо, шардирование решает часть проблемы. Нет ли рецепта как при этом оптимально выполнять селекты, которые размазаны по шардам?
источник

ЛА

Локоть Анатолий... in Go-go!
Александр Попов
и вам надо по всему обьему бахать?
Мне надо решить с хранением, пока я могу ещё менять структуру на меньших объемах. В любом случае чем больше бд , тем дольше все запросы на ней.
источник

ВС

Владимир Столяров... in Go-go!
а какой там может быть рецепт? разве что как-то минимизировать количество шардов, которые надо обойти
источник

DP

Daniel Podolsky in Go-go!
коллега, ну какие тут могут быть рецепты?
источник

ЛА

Локоть Анатолий... in Go-go!
Daniel Podolsky
коллега, ну какие тут могут быть рецепты?
Мб есть какие-то облачные решения под ключ? Которые поделят таблицу на куски по определенному ключу, и также самостоятельно обеспечат обход всех шардов в случае агрегирующего запроса?
источник

ЛА

Локоть Анатолий... in Go-go!
Или вообще любые другие решения. Я не могу знать того, что не знаю) в моём арсенале только шардирование
источник

ВГ

Владимир Гришин... in Go-go!
Локоть Анатолий
Мб есть какие-то облачные решения под ключ? Которые поделят таблицу на куски по определенному ключу, и также самостоятельно обеспечат обход всех шардов в случае агрегирующего запроса?
Citus? Timescale?
источник

ЛА

Локоть Анатолий... in Go-go!
Спс, пошел читать. Ранее не слышал
источник

ВГ

Владимир Гришин... in Go-go!
это пг, наверное, в MySQL тоже что-то есть
источник

ЛА

Локоть Анатолий... in Go-go!
Владимир Гришин
это пг, наверное, в MySQL тоже что-то есть
Мне pg и надо
источник

VL

V L in Go-go!
Локоть Анатолий
Мб есть какие-то облачные решения под ключ? Которые поделят таблицу на куски по определенному ключу, и также самостоятельно обеспечат обход всех шардов в случае агрегирующего запроса?
возможно вам поменять хранилище данных под то, что лучше работает с тем поведением данных и операциям над данными типом данных, что вы используете?
источник

ЛА

Локоть Анатолий... in Go-go!
V L
возможно вам поменять хранилище данных под то, что лучше работает с тем поведением данных и операциям над данными типом данных, что вы используете?
Posgresql
источник

VL

V L in Go-go!
Вот возможно стоит подумать над другими вариантами, если универсальность уже создает проблемы?
источник

ЛА

Локоть Анатолий... in Go-go!
V L
Вот возможно стоит подумать над другими вариантами, если универсальность уже создает проблемы?
Например, какие могут быть решения?
Я не могу полностью уйти в nosql тк есть агреригующий запрос (запрос по многим фильтрам).
источник

DP

Daniel Podolsky in Go-go!
Локоть Анатолий
Например, какие могут быть решения?
Я не могу полностью уйти в nosql тк есть агреригующий запрос (запрос по многим фильтрам).
масса вариантов, но они все по месту
источник

S

Sergey in Go-go!
Если шардирование решает проблему, то партиционирование тоже решит и избавит от проблем с агрегированием данных.
источник

VL

V L in Go-go!
Локоть Анатолий
Например, какие могут быть решения?
Я не могу полностью уйти в nosql тк есть агреригующий запрос (запрос по многим фильтрам).
Для начала определитесь с характером данных и требуемыми операциями. Возможно у вас данные только добавляются, но не редактируются.
источник

ЕО

Евгений Омельченко... in Go-go!
Локоть Анатолий
У меня есть таблица на десятки миллионов записей. При росте данных в ней, тайминги увеличились. Запросы - а основном селекты по уникальному ключу. намного реже есть агреригующие запросы.Если сделать шардирование - те несколько инстансов бд и там хранить порции данных, то для запросов по уникальному ключу все становится лучше, но больше и сложнее становится агрегирующий запрос, ТК с ним приходится обходить все шарды, потом собирать все данные в кучу.
Вот такую картину я имею.
Выглядит так будто у вас аналитическая база данных
источник