Size: a a a

QA — Load & Performance

2020 March 30

NV

Nikita Verbitsky in QA — Load & Performance
Супер.
А как можно делать?
источник

AV

Andrey Vorotyagin in QA — Load & Performance
источник

AV

Andrey Vorotyagin in QA — Load & Performance
Может кому-то будет полезным...
источник

NG

Nadezhda Grudacheva in QA — Load & Performance
Andrey Vorotyagin
Может кому-то будет полезным...
Андрей, привет! это что, прям полный безлимит до 31 июля?
источник

AV

Andrey Vorotyagin in QA — Load & Performance
Nadezhda Grudacheva
Андрей, привет! это что, прям полный безлимит до 31 июля?
Привет. Да. Все, что нужно быть нашим Заказчиком.
источник

NG

Nadezhda Grudacheva in QA — Load & Performance
Andrey Vorotyagin
Привет. Да. Все, что нужно быть нашим Заказчиком.
и, видимо, версия новее, чем 12.62?
источник

AV

Andrey Vorotyagin in QA — Load & Performance
Nadezhda Grudacheva
и, видимо, версия новее, чем 12.62?
Версии продуктов, у которых не истек период End of Support. На текущий момент это версии начиная с 12.50 и выше. На сколько я помню...
источник

VK

Vitaliy Kudryashov in QA — Load & Performance
Nikita Verbitsky
Судя по запросам в weeksCounter в  .exec(AdvanceUserEnrollment.createFeedItem(weeksCounter)).pause(thinktime) всегда попадает 0, не смотря на то, что я инкрементирую значение в последнем exec.
мне что-то кажется ты возвращаешь не измененную сессию по итогу
источник

VK

Vitaliy Kudryashov in QA — Load & Performance
И у репита есть встроенный каунтер, зачем делать свой
источник

NV

Nikita Verbitsky in QA — Load & Performance
Vitaliy Kudryashov
И у репита есть встроенный каунтер, зачем делать свой
То, что нужно.
Получилось сделать, спасибо.
источник
2020 March 31

KY

Kirill Yurkov in QA — Load & Performance
https://grafana.com/grafana/dashboards/1152
после пару месяцев страданий выяснилось, что этот дашборд с его имплемантацией никуда не годится для большого количества проектов и/или частых нагрузок с большим количеством логов. для адекватных графиков и таблиц требуется делать около 5-ти каунтов по нескольким миллионам запросам (при условии выборки только из одного теста). короче, на перспективу - обременительная вещь, с загрузками по минуте+
переехал на стоковый от Philippe https://grafana.com/grafana/dashboards/5496 - результаты в пишутся батчами и большое количество данных для выборки заранее прошедшие агрегацию. буду сравнивать производительность этих ребят, если и этот не потянет сяду писать свое. а если взлетит - поделюсь дашбордом более симпатичным и юзабельным на основе этого.
вдруг кому будет полезен этот опыт)
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Тоже базовым способом пользуемся
источник

AN

Anton Necheukhin in QA — Load & Performance
Всем привет! Мы тут пытаемся попробовать использовать Gathling для работы с WS (сейчас используем Jmeter), и есть проблема, которую не понятно как решить:
У нас сложный фронт, мы шлем внутри WS не простые тексты, а обмениваемся с сервером данными в бинарном виде. Мы шлем команду и мы заранее не знаем в скольких пакетах (фреймах) мы получим ответ, мы это видим только по факту, когда приходит последний пекет с "тегом"  означающим окончание. В гатлинге мы можем ждать один пакет или заранее известное количество пакетов и вешать проверки на них. При этом расширить функционал гатлинга не понятно как, надо закапываться глубоко в их реализацию. Кто нибудь решал подобные задачи? Как склеивать ответы для их удобной обработки?
источник

AN

Anton Necheukhin in QA — Load & Performance
Или может быть вы знаете удобный инструмент (или библиотеку), который используете для подобных задач
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Anton Necheukhin
Всем привет! Мы тут пытаемся попробовать использовать Gathling для работы с WS (сейчас используем Jmeter), и есть проблема, которую не понятно как решить:
У нас сложный фронт, мы шлем внутри WS не простые тексты, а обмениваемся с сервером данными в бинарном виде. Мы шлем команду и мы заранее не знаем в скольких пакетах (фреймах) мы получим ответ, мы это видим только по факту, когда приходит последний пекет с "тегом"  означающим окончание. В гатлинге мы можем ждать один пакет или заранее известное количество пакетов и вешать проверки на них. При этом расширить функционал гатлинга не понятно как, надо закапываться глубоко в их реализацию. Кто нибудь решал подобные задачи? Как склеивать ответы для их удобной обработки?
Привет. Можно попробовать копить предыдущие ответы в сессии.
Задача: сохранить что-то в сессии решается регулярно.

Пример работы с веб-сокетом можно посмотреть тут:
https://github.com/gatling/gatling/blob/master/gatling-http/src/test/scala/io/gatling/http/compile/WsCompileTest.scala#L103
    .exec(
     ws("BinaryMessage")
       .sendBytes("hello".getBytes())
       .await(30 seconds)(
         // match first message
         ws.checkBinaryMessage("checkName").check(bodyBytes.transform(_.length).saveAs("bytesLength")).silent
       )
   )
Тут сохраняется не тело ответа, а только его длина. Тело ответа сохранить, думаю, можно так:
    .exec(
     ws("BinaryMessage")
       .sendBytes("hello".getBytes())
       .await(30 seconds)(
         // match first message
         ws.checkBinaryMessage("checkName").check(bodyBytes.saveAs("body")).silent
       )
   )
А потом нужно добавить что-то вида пост-процессора:
.exec {
   session =>
       val allBodyes = session("allBodyes").as[LinkedList]
       val body = session("body").as[Bytes[]]

   session.add("allBodyes", allBodyes.add(body))
}

Это псевдокод
источник

VG

Viktor Ganeles in QA — Load & Performance
Kirill Yurkov
https://grafana.com/grafana/dashboards/1152
после пару месяцев страданий выяснилось, что этот дашборд с его имплемантацией никуда не годится для большого количества проектов и/или частых нагрузок с большим количеством логов. для адекватных графиков и таблиц требуется делать около 5-ти каунтов по нескольким миллионам запросам (при условии выборки только из одного теста). короче, на перспективу - обременительная вещь, с загрузками по минуте+
переехал на стоковый от Philippe https://grafana.com/grafana/dashboards/5496 - результаты в пишутся батчами и большое количество данных для выборки заранее прошедшие агрегацию. буду сравнивать производительность этих ребят, если и этот не потянет сяду писать свое. а если взлетит - поделюсь дашбордом более симпатичным и юзабельным на основе этого.
вдруг кому будет полезен этот опыт)
> результаты пишутся батчами

В смысле ты сменил имплементацию бекенд листнера что бы в инфлакс данные отправлялись пачками?

Они же и в дефолтном вроде пачками отправляются, разве не так?
источник

KY

Kirill Yurkov in QA — Load & Performance
так я сменил на дефолтную
источник

KY

Kirill Yurkov in QA — Load & Performance
))
источник

VG

Viktor Ganeles in QA — Load & Performance
Аа, понял
источник

DK

Dmytro Kryshtopenko in QA — Load & Performance
Добрый день. Все.
У нас есть postgresql, и graphql через который мы и делаем CRUD операции.
Вопрос, средствами какого инструмента, максимально быстро с нагрузкой удобно заполнить базу данных (параметризированно) через POST запросы?
источник