Size: a a a

QA — Load & Performance

2020 February 11

S7

Sam 7 in QA — Load & Performance
Всем привет. Кто то сталкивался с необходимостью мокать смтп сервер для нт сервиса по отправке имейлов?
источник

VG

Viktor Ganeles in QA — Load & Performance
Kirill Yurkov
есть мнения почему например в LR делается по дефолту именно так? и почему так крайне часто практикуют?
В lr делается не совсем так.
В lr нет аналога shaping timer - ведь shaping timer меняет производительность одного треда, а в lr у каждого виртуального пользователя pacing на весь тест зафиксирован.

Получается, что в lr и вариантов нет - повышать нагрузку можно только повышая количество тредов.
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Sam 7
Всем привет. Кто то сталкивался с необходимостью мокать смтп сервер для нт сервиса по отправке имейлов?
Да. Использовал простой python скрипт fake smtp с github. Он сохраняет письма в HTML файлы в каталоги == email получателя. А их уже получал просто из nginx, в котором настроил directory listing каталога с письмами.
источник

S7

Sam 7 in QA — Load & Performance
Вячеслав Смирнов
Да. Использовал простой python скрипт fake smtp с github. Он сохраняет письма в HTML файлы в каталоги == email получателя. А их уже получал просто из nginx, в котором настроил directory listing каталога с письмами.
Спасибо
источник

VG

Viktor Ganeles in QA — Load & Performance
Viktor Ganeles
В lr делается не совсем так.
В lr нет аналога shaping timer - ведь shaping timer меняет производительность одного треда, а в lr у каждого виртуального пользователя pacing на весь тест зафиксирован.

Получается, что в lr и вариантов нет - повышать нагрузку можно только повышая количество тредов.
И - да, получается, мы не знаем, влияет на систему увеличившееся количество запросов в секунду или количество «коннектов», т.е. количество активных пользоватеьей.
Но! По моей практике в большинстве случаев ожидают роста нагрузки именно в связи с ростом количества пользователей.

А значит такой подход как раз подходит
источник

VG

Viktor Ganeles in QA — Load & Performance
И это не говоря уже о том, что почти всегда скрипт отрабатывает полный цикл: залогинился/сделал кейс/вышел, а в такой ситуации уже не так важно, сколько потоков на LG

Остаётся только решить, нужен ли тебе в этом тесте keep-alive
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Sam 7
Спасибо
Чтобы дожидаться письма сделал в тесте while, который раз в 5 сек получает список содержимого каталога от nginx. Nginx может отдавать список в формате json и xml. На json сделал правило проверки имени файла и даты его обновления.

Ожидание получилось сложным. И запросов к nginx много. Но ему не тяжело. Он быстрый
источник

S7

Sam 7 in QA — Load & Performance
Вячеслав Смирнов
Чтобы дожидаться письма сделал в тесте while, который раз в 5 сек получает список содержимого каталога от nginx. Nginx может отдавать список в формате json и xml. На json сделал правило проверки имени файла и даты его обновления.

Ожидание получилось сложным. И запросов к nginx много. Но ему не тяжело. Он быстрый
Мне не особо необходимо дожидаться ответа
источник

S7

Sam 7 in QA — Load & Performance
Важно понимать, что сервис отправил сообщение смтп серверу
источник

KY

Kirill Yurkov in QA — Load & Performance
Viktor Ganeles
И - да, получается, мы не знаем, влияет на систему увеличившееся количество запросов в секунду или количество «коннектов», т.е. количество активных пользоватеьей.
Но! По моей практике в большинстве случаев ожидают роста нагрузки именно в связи с ростом количества пользователей.

А значит такой подход как раз подходит
но на самом деле, эти ожидания удовлетворяются фейково. ведь супер редко когда делается 1 юзер в нагрузке == 1 реальному юзеру, так что ценности в них мало
источник

VG

Viktor Ganeles in QA — Load & Performance
Kirill Yurkov
но на самом деле, эти ожидания удовлетворяются фейково. ведь супер редко когда делается 1 юзер в нагрузке == 1 реальному юзеру, так что ценности в них мало
Согласен.

Ну и количество реально работающих онлайн юзеров редко когда имеет большое значение
источник

VG

Viktor Ganeles in QA — Load & Performance
Кстати, я когда использовал throughput shaping timer - сразу выдавал ему запас потоков на весь тест
источник

VG

Viktor Ganeles in QA — Load & Performance
А как-то по этой статье пытались сделать коробку-автомат:

Авторасчёт и потоков и таймеров

https://www.blazemeter.com/blog/using-jmeters-throughput-shaping-timer-plugin/
источник

KY

Kirill Yurkov in QA — Load & Performance
тоже считаю надо тестить выставляя одну величину константой (тпс/тред)
источник

VG

Viktor Ganeles in QA — Load & Performance
Но вышло так себе. Устаканивание одного относительно другого давало дикие расколбасы и мы забили на эту идею
источник

VG

Viktor Ganeles in QA — Load & Performance
Kirill Yurkov
тоже считаю надо тестить выставляя одну величину константой (тпс/тред)
+1
Так удобнее :)
источник

KY

Kirill Yurkov in QA — Load & Performance
и показательно
источник

ПБ

Пётр Байкалов in QA — Load & Performance
Viktor Ganeles
Но вышло так себе. Устаканивание одного относительно другого давало дикие расколбасы и мы забили на эту идею
Я всё чаще задаюсь вопросом, почему Free Form Arrivals есть, а Free Form Departures нету.
источник
2020 February 12

MC

Maria Chigrina in QA — Load & Performance
Maria Chigrina
Всем привет! Кто нибудь нагружал Siebel с помощью jmeter? С какими трудностями/проблемами сталкивались?
Всем привет! Повторю свой вопрос. Возможно использовали другое решение, то какое?
источник

MK

Mike Khil in QA — Load & Performance
Maria Chigrina
Всем привет! Повторю свой вопрос. Возможно использовали другое решение, то какое?
Привет! в LR есть такой протокол с коробки. Сам не пользовался, но можно посмотреть в эту сторону
источник