Size: a a a

2021 March 05

RV

Ruslan Valitov in Tarantool
R-omk
так шардинг же..
Имеете ввиду нужно поднять шардирование и рампаралелить отправку?
источник

R

R-omk in Tarantool
что бы они нибыло  , нужно поднять пул соединений и работать с ним , а не на каждое событие   делать все заново
источник

AK

Alexey Kuzin in Tarantool
Ruslan Valitov
Имеете ввиду нужно поднять шардирование и рампаралелить отправку?
Как один из вариантов, но 10к сообщений можно и в однонодовой очереди раскидать на Тарантуле
источник

RV

Ruslan Valitov in Tarantool
R-omk
так это не протарантул же
Именно про него! Он получает сообдения и он должен уведомлять
источник

R

R-omk in Tarantool
Ruslan Valitov
Имеете ввиду нужно поднять шардирование и рампаралелить отправку?
ну допустим шардинг по юзеру,    тогда 10000  размажется   ,   и каждому из таранутлов нужно будет отправить только часть
источник

RV

Ruslan Valitov in Tarantool
R-omk
ну допустим шардинг по юзеру,    тогда 10000  размажется   ,   и каждому из таранутлов нужно будет отправить только часть
Используя queues?
источник

R

R-omk in Tarantool
Ruslan Valitov
Именно про него! Он получает сообдения и он должен уведомлять
ну я не ручаюсь за что что клиентская http  библиотека  огонь,  но в общес случае -   установил tls соединения и   фигачишь в них http запросы
источник

RV

Ruslan Valitov in Tarantool
R-omk
ну я не ручаюсь за что что клиентская http  библиотека  огонь,  но в общес случае -   установил tls соединения и   фигачишь в них http запросы
Ну это понятно! Вопрос весь в том, сколько один инстанс может переварить http запросов?
источник

R

R-omk in Tarantool
Ruslan Valitov
Ну это понятно! Вопрос весь в том, сколько один инстанс может переварить http запросов?
что значит ипереварить, он ведь их отправляет
источник

RV

Ruslan Valitov in Tarantool
R-omk
что значит ипереварить, он ведь их отправляет
😁 ну раз это экспертное мнение, то остается пробовать))
источник

R

R-omk in Tarantool
ну создаете пул воркеров которе будет отправлять запросы,  сколько одновременно воркеров столько и запросов одновременно будет пытатся отправлять,   начнет тупить  значит нужно уменьшать количество воркеров и   добавлять репликасеты в шардинг .. вот и вся математика
источник

R

R-omk in Tarantool
один воркер = одно последовательно отправляемое сообщение
источник

R

R-omk in Tarantool
я очень надеюсь что  в клиентской http библиотеке   пул соединений есть под капотом и юзер не должен париться о том чтобы явно это контролировать
источник

R

R-omk in Tarantool
там внутри libcurl    ему пару опций пробрасывается  max_connections и max_total_connections
источник

RV

Ruslan Valitov in Tarantool
Спасибо, тоже опробую
источник

R

R-omk in Tarantool
и в самом запросе есть всякие опции для keepalive ,  т.е.   про пул соединений париться не нужно,   нужно только сделать пул файберов которые будут разгребать очередь на отправку пушей
источник

R

R-omk in Tarantool
ну и если протокол принимающей стороны умеет мультиплексировать то лучше об этом сразу позаботиться,   я помню в какомто  году vk на hl рассказывали как они пуши отправляли, там целая история про оптимизации
источник

ИМ

Игрь Минеев... in Tarantool
Подскажите, что лучше использовать если хочется померить перфоменс в lua в 1.10
Какие модули для нагрузки лучше использовать?
Как снять перф репорт?
источник

MF

Michael Filonenko in Tarantool
мы поднимали тарантул приложение и бенчили его через бинарный порт другим тарантулом
источник

MF

Michael Filonenko in Tarantool
если приложение экспортирует http api использовали wrk
источник