Size: a a a

QA — Load & Performance

2019 December 12

NK

ID:0 in QA — Load & Performance
Слайды к докладу "Ускоряем Apache.JMeter"

Начальный формат:
https://polarnik.github.io/Apache.JMeter.Benchmark.NG/

Новый формат: https://docs.google.com/presentation/d/1EPPMHeTjxOTSnt6q7fbJsMoDFHLzcjFKuLxcCARNDmU/edit?usp=sharing
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Выводы по результатам оптимизации ДБО в докладе Виктора. Интересно было узнать, про мониторинг SQL Server с помощью Query Store
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
А вот так выглядит Gatling Frontline
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
... ещё сервис-конвертор скриптов из Loadrunner в JMeter и много другого интересного

Здоровская конференция получилась. Спасибо всем, кто пришел! И Саше, что пригласил
источник

IS

Ilia Solo in QA — Load & Performance
👍👍
источник

СЧ

Сергей Чепкасов in QA — Load & Performance
Песочница для gatling:
https://github.com/chepk/gatling-sandbox
Нужен только docker и compose. Можно потестить) 2гб ram хватит на все контейнеры. Это самая базовая версия) если что то хотите дополнить - пишите.
Спасибо всем кто участвовал)
источник

VG

Viktor Ganeles in QA — Load & Performance
Кстати, по поводу сравнения тестов:
В пакете serputko есть сравнение jmeter-овых тестов без постгре, всё на инфлаксе
источник

VG

Viktor Ganeles in QA — Load & Performance
источник

МК

Михаил Краснов in QA — Load & Performance
Viktor Ganeles
У LR есть несколько минусов:

- цена (не так. ЦЕНА!!!)
- долгое открытие отчётов.
- негибкость отчётов: есть набор графиков, новые не построить.

Но: там есть дофига вызовов, которые заметно облегчают работу.
В том числе - хороший парсер ресурсов, который работает не только при воспроизведении, но и при записи (запросы просто не пишутся, если они воспроизведутся автоматом).

Количество графиков оганичено, но оно огромно, а данные ОЧЕНЬ кастомизируемы.
Их наборы сохраняются в шаблоны и можно строить автоотчёты.

Большое количество протоколов «изкоробки»

Есть свой распределённый запускатор тестов (performance center), который довольно неплох.
про долгое время открытие отчёта, я на сколько помню долго открываются результаты именно из "исходников/сырых данных" но после первого открытия их можно сохранить как "проанализированные" или что-то такое и уже такие данные открываются шустро, вроде бы как-то так.
источник

KY

Kirill Yurkov in QA — Load & Performance
Viktor Ganeles
Кстати, по поводу сравнения тестов:
В пакете serputko есть сравнение jmeter-овых тестов без постгре, всё на инфлаксе
базово есть перфоманс плагин для jmeter, он умеет строить тренд в дженкинсе и показывает какие-то результаты основные. я его комбинирую с хтмл отчетом, который хостит дженкинс. удобно - открыл тренд, сравнил, захотел подробности увидел полный отчет
источник

KY

Kirill Yurkov in QA — Load & Performance
детализации тоже смотрю в графане прям сдвигами на нужные даты и наложением графиков, работы там совсем немного, уж точно не сравнить с таблицами экселя
источник

ΙΤ

Ιωάννης Τσεκούρι in QA — Load & Performance
У нас не просто сравнение, мы ещё обогащаем мета инфой эти прогоны
источник

VG

Viktor Ganeles in QA — Load & Performance
Михаил Краснов
про долгое время открытие отчёта, я на сколько помню долго открываются результаты именно из "исходников/сырых данных" но после первого открытия их можно сохранить как "проанализированные" или что-то такое и уже такие данные открываются шустро, вроде бы как-то так.
Верно
источник

VG

Viktor Ganeles in QA — Load & Performance
Kirill Yurkov
базово есть перфоманс плагин для jmeter, он умеет строить тренд в дженкинсе и показывает какие-то результаты основные. я его комбинирую с хтмл отчетом, который хостит дженкинс. удобно - открыл тренд, сравнил, захотел подробности увидел полный отчет
Покажи
источник

VG

Viktor Ganeles in QA — Load & Performance
Kirill Yurkov
детализации тоже смотрю в графане прям сдвигами на нужные даты и наложением графиков, работы там совсем немного, уж точно не сравнить с таблицами экселя
Через timeshift или json-запросы руками допиливаете?
источник

VG

Viktor Ganeles in QA — Load & Performance
Ιωάννης Τσεκούρι
У нас не просто сравнение, мы ещё обогащаем мета инфой эти прогоны
А что за метаинфа?
Номера прогонов?
источник
2019 December 13

KY

Kirill Yurkov in QA — Load & Performance
Viktor Ganeles
Покажи
детально пока не могу, есть старые скрины укажу в комментариях что допилил.
источник

KY

Kirill Yurkov in QA — Load & Performance
совсем упрощенно это так. у каждого проекта есть дашборд в джекинсе, у каждого дашборда есть джобы - это обычные сущности дженкинса, никаких знаний не требует. допустим зашли в проект и у нас там одна джоба - тест максимума. с этого экрана мы видим какие тесты сейчас запущены по какому проекту - это полезно на случай, когда генераторы нагрузки используются под разные проекты, а уж тем более когда несколько проектов висят на одних машинах (так нехорошо делать!). красным состояние джобы
источник

KY

Kirill Yurkov in QA — Load & Performance
проваливаемся в джобу, справа видим тренд по тпсам, количеству ошибок - это поле настраивается и туда можно вывести времена откликов и чето еще. слева видим хистори всех запусков, ну и снова текущий процесс в рамках этой джобы. желтым выделил сборку
источник

KY

Kirill Yurkov in QA — Load & Performance
зайдя в перфоманс тренд можно увидеть более детальные тренды. где #№ это номер сборки. тут немного кривое отображение, но можно чуть напрячься и сделать разбивку по операциям
источник