Size: a a a

QA — Load & Performance

2020 April 01

A

Alex in QA — Load & Performance
жесть :)
тут простыми вариантами не обойтись, я бы куда то слил все данные и батчами тянул потом поштучно с нод отправлял
источник

A

Alex in QA — Load & Performance
Kirill Yurkov
а уж 30гб/сек вообще очень сомнительно
да и сеть тоже должна тянуть такое
источник

KY

Kirill Yurkov in QA — Load & Performance
ну вот я дал вариант с шардированной бд, правда тут тоже не ясно как в сетку это просочится
источник

KY

Kirill Yurkov in QA — Load & Performance
если это 1 машина, она должна 30 гб минимум в сек брать по сети и слать их же
источник

KY

Kirill Yurkov in QA — Load & Performance
а какие конфигурации тачек под такие задачки?
источник

A

Alex in QA — Load & Performance
а что то кроме отправки xml в тесте есть? мб проще напрямую микросервисами сделать?
источник

R

Roman in QA — Load & Performance
3 машины 32CPU 64ram есть щас
источник

R

Roman in QA — Load & Performance
В основном отправка xml
источник

R

Roman in QA — Load & Performance
Сеть вроде 5 гигабит
источник

A

Alex in QA — Load & Performance
Kirill Yurkov
а какие конфигурации тачек под такие задачки?
да там на целевом сервисе сеть не влазит вроде, по примерным прикидкам
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Вячеслав Смирнов
Есть хороший доклад от Сергея Журина о нагрузке шины. Где он рассказывает, как снижал нагрузку на диск при считывании миллионов xml в JMeter. В общем он сжал каталоги с файлами, а в JMeter разжимал их, пулил в очередь на Java же и разбирал её

https://youtu.be/kWHjX8-uX5Q

https://www.highload.ru/moscow/2018/abstracts/3863
@Frantaan посмотрите доклад
Пригодится, похожая задача была
источник

R

Roman in QA — Load & Performance
Да, спасибо, уже слушаю)
источник

KY

Kirill Yurkov in QA — Load & Performance
Roman
3 машины 32CPU 64ram есть щас
тебе полностью в память поместиться смогут только 200 тысяч файлов. если тебе надо отправлять по 11 тысяч запросов, то значит минимум в памяти надо иметь хотябы те xml что отправляешь и следующую которую отправишь, это 70 гигов, а максимальный лимит из 180 доступных, еще какой-то объем необходим для обслуживания самого инструмента и думаю не маленький. то есть я думаю ты сможешь за раз в инструменте держать не более трех файлов на поток, для таких интесивностей это очень мало, если поток затупит или постарается догнать нужную интенсивность отрпвкой нескольких запросов продряд - может не хватить фалйа
источник

KY

Kirill Yurkov in QA — Load & Performance
по хорошему начать с обмеров текущих машин и с этим уже как-то работать
источник

R

Roman in QA — Load & Performance
Спасибо за наводки большое, надо идти думать теперь)
Жаль через кафку не выйдет, так бы жизнь облегчило
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Roman
Спасибо за наводки большое, надо идти думать теперь)
Жаль через кафку не выйдет, так бы жизнь облегчило
https://kafka.apache.org/documentation/#connect_transforms

Вот тут написано, как из файла считать тестовые данные в топик
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Надо как-то делать такое по расписанию
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Или маршрутизацией - накопить где-то данные и постепенно пересылать из kafka в kafka
источник

R

Roman in QA — Load & Performance
Да я с этой кафкой намучался уже)
Возможно стоит отойти и подумать насчет редиса
источник

R

Roman in QA — Load & Performance
Вячеслав Смирнов
Или маршрутизацией - накопить где-то данные и постепенно пересылать из kafka в kafka
Ну у меня так и сделано кстати, я так и планировал засыпать данные в Кафку
Но споткнулся о вычитку
источник