Size: a a a

2021 March 09

DL

Dmitry Lukovkin in Tarantool
это другая история, насколько я понял. Там были реальные 1,5Gb вроде
источник

DS

Dmitry Sharonov in Tarantool
Dmitry Lukovkin
это другая история, насколько я понял. Там были реальные 1,5Gb вроде
я может неправильно понял - у вас сейчас общая проблема, или просто совпадение в чате?
источник

MA

Mons Anderson in Tarantool
Евгений
От 1 до сотен раз в сек. В зависимости от ситуации. На самом деле большая часть запросов до 50к. Но там таплы оч маленькие
плевать какого размера таплы. сам тапл на арене
память они загаживают одинаково
источник

Е

Евгений in Tarantool
Dmitry Sharonov
я может неправильно понял - у вас сейчас общая проблема, или просто совпадение в чате?
у нас разные подсистемы в которых при увеличении нагрузки появились схожие проблемы
источник

Е

Евгений in Tarantool
Странная реакция
источник

DL

Dmitry Lukovkin in Tarantool
Dmitry Sharonov
я может неправильно понял - у вас сейчас общая проблема, или просто совпадение в чате?
Нет, не совпадение, но 1,5Gb это было про другое, там нашли корень зла. Теперь вот с селектами мучаемся.
Вопрос в догонку установка tarantool/metrics возможна только через rocks?
источник

MA

Mons Anderson in Tarantool
Евгений
Странная реакция
Мне кажется, что вы игнорируете чужой опыт
источник

Е

Евгений in Tarantool
Mons Anderson
Мне кажется, что вы игнорируете чужой опыт
нет, что делать понятно. Идея была по быстрому подтюнить tnt и выиграть время. В любом случае спасибо, больше стало понятно
источник

MA

Mons Anderson in Tarantool
внутри каждого возврата большого сета воткнуть fiber.new(function() collectgarbage('collect') end) return big_data_set
это очень плохой совет, который сожрёт кучу CPU на gc, но позволит удержать память
источник

Е

Евгений in Tarantool
Mons Anderson
внутри каждого возврата большого сета воткнуть fiber.new(function() collectgarbage('collect') end) return big_data_set
это очень плохой совет, который сожрёт кучу CPU на gc, но позволит удержать память
есть понимание когда и в какой версии вы снимете ограничение на 2Гб lua?
источник

Е

Евгений in Tarantool
Или это вообще не приоритет?
источник

MA

Mons Anderson in Tarantool
вообще не приоритет. не стоит на это рассчитывать
источник

Е

Евгений in Tarantool
получается как альтернатива - стоит переезжать на 2.х и запрашивать через SQL. Я верно понимаю там нет в прокладке lua?
источник

MA

Mons Anderson in Tarantool
запрашивать 200к через SQL настолько же плохая идея. независимо от SQL/Lua и GC
источник

NK

Nick Karlov in Tarantool
Евгений
получается как альтернатива - стоит переезжать на 2.х и запрашивать через SQL. Я верно понимаю там нет в прокладке lua?
вы не могли бы описать, зачем вам единомоментно выгружать 200к записей?  В этой же задаче у вас 28 мастеров? У вас задача сбора метрик с устройств?
источник

Е

Евгений in Tarantool
Nick Karlov
вы не могли бы описать, зачем вам единомоментно выгружать 200к записей?  В этой же задаче у вас 28 мастеров? У вас задача сбора метрик с устройств?
нет. Мы занимаемся разработкой систем автоматизации для валютных рынков
источник

NK

Nick Karlov in Tarantool
ну тогда стало слегка понятнее. Типовая торговая биржа генерирует несколько сотен  тысяч ордеров в секунду.
источник

Е

Евгений in Tarantool
у нас очень быстро устаревают данные потому приходится их часто пересчитывать
источник

Е

Евгений in Tarantool
Nick Karlov
ну тогда стало слегка понятнее. Типовая торговая биржа генерирует несколько сотен  тысяч ордеров в секунду.
больше и дело тут не в ордерах а в целом о событиях
источник

NK

Nick Karlov in Tarantool
любопытно
источник