Size: a a a

QA — Load & Performance

2019 October 30

AG

Alex Grishutin in QA — Load & Performance
@smirnovqa Привет, выше ты постил что с датадогом разбираешься. Не находил какие нибудь приятные способы его интеграции с jmete ом?
источник

AP

Aliaksei Patotski in QA — Load & Performance
Привет. Может кто-нибудь может скинуть пример отчета анализа результатов нагрузочного тестирования? Примерно какие метрики обычно там указывают, может графики какие. Понятно, что все зависит от требований к системе. но может быть кто-нибудь может поделиться примером, даже без каких-то конкретных данных.
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Alex Grishutin
@smirnovqa Привет, выше ты постил что с датадогом разбираешься. Не находил какие нибудь приятные способы его интеграции с jmete ом?
Привет. Смотрел их статью с ключевыми метриками производительности Tomcat. А сбор метрик реализовал по аналогии, без datalog. Статье благодарен за пример, образец.

По интеграции с jmeter не подскажу
источник

AG

Alex Grishutin in QA — Load & Performance
оке, спасибо
источник

AG

Alex Grishutin in QA — Load & Performance
Aliaksei Patotski
Привет. Может кто-нибудь может скинуть пример отчета анализа результатов нагрузочного тестирования? Примерно какие метрики обычно там указывают, может графики какие. Понятно, что все зависит от требований к системе. но может быть кто-нибудь может поделиться примером, даже без каких-то конкретных данных.
там из отчета ожасно много придется вырезать просто из-за nda.
Но если по пунктам то:
2. Общие положения (что тестировали, когда чем и зачем, инфа о тестируемой системе и тд. Сценарии, бейзлайн)
3. Результаты по каждому из тестов (вся инфа какую почитаешь необходимой по конкретному тесту... из  стандартных графиков рпс, юзеры, респонсы и hardware мониторинг)
4. Полные выводы (полностью расписаные выводы с тех деталями и тд)
5. полезные атачи


Каждый из пунктов можно разбить более детально....

Да и вообще отчетность можно сильно специализировать под каждый проект, аля отдельно для бизнеса или отдельно для разрабов и тд

Какие то общие детали можно подрезать тут:
https://www.istqb.org/documents/ISTQB%20CTFL-PT%20Syllabus%202018%20GA.pdf

начина с 51 стр
источник

AP

Aliaksei Patotski in QA — Load & Performance
Alex Grishutin
там из отчета ожасно много придется вырезать просто из-за nda.
Но если по пунктам то:
2. Общие положения (что тестировали, когда чем и зачем, инфа о тестируемой системе и тд. Сценарии, бейзлайн)
3. Результаты по каждому из тестов (вся инфа какую почитаешь необходимой по конкретному тесту... из  стандартных графиков рпс, юзеры, респонсы и hardware мониторинг)
4. Полные выводы (полностью расписаные выводы с тех деталями и тд)
5. полезные атачи


Каждый из пунктов можно разбить более детально....

Да и вообще отчетность можно сильно специализировать под каждый проект, аля отдельно для бизнеса или отдельно для разрабов и тд

Какие то общие детали можно подрезать тут:
https://www.istqb.org/documents/ISTQB%20CTFL-PT%20Syllabus%202018%20GA.pdf

начина с 51 стр
👍 Спасибо
источник

ΙΤ

Ιωάννης Τσεκούρι in QA — Load & Performance
@smirnovqa запускаем нейросеть по вычислению спамера
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Ιωάννης Τσεκούρι
@smirnovqa запускаем нейросеть по вычислению спамера
Пробовал написать хозяевам фото, что их фото используют для создания аккаунтов. И использовал поиск по фото. А поиск по фото -- нейросеть Яндекса и Гугла:-)

Хозяев фото найти сложно. Люди делают тысячи фотографий и нейросетки не справляются с поиском.

На разных площадках разные имена. Фото человека, которого искал взяли из instagram.
источник

AL

Alexander Lebedev in QA — Load & Performance
Добрейший вечерочек. Появилась у меня мыслишка, хочу изучить к жиметру и другие инструменты, но на текущем проекте особо не разгуляешься. Так вот кто нибудь видел песочницу для юных перформанс тестеров?
источник

AG

Alex Grishutin in QA — Load & Performance
локально (или  на фри тире авса) разворачиваешь вордпресс и вперед)
источник
2019 October 31

M

Maх in QA — Load & Performance
Alexander Lebedev
Добрейший вечерочек. Появилась у меня мыслишка, хочу изучить к жиметру и другие инструменты, но на текущем проекте особо не разгуляешься. Так вот кто нибудь видел песочницу для юных перформанс тестеров?
Если правильно понял вопрос, навскидку, можно поупражняться на:
http://blazedemo.com/
или
http://newtours.demoaut.com/
источник

AK

Anton Kramarev in QA — Load & Performance
источник

AL

Alexander Lebedev in QA — Load & Performance
Всем большое спасибо
источник

YK

Yuliya Kylosova in QA — Load & Performance
Всем привет, сталкивался ли кто-нибудь с ситуацией, когда Http request в Jmeter возвращал не весь json?
Вместо списка возвращал null, хотя в данные в списке есть, если тот же запрос отправить через postman. Спасибо
источник

Y

Ye in QA — Load & Performance
Yuliya Kylosova
Всем привет, сталкивался ли кто-нибудь с ситуацией, когда Http request в Jmeter возвращал не весь json?
Вместо списка возвращал null, хотя в данные в списке есть, если тот же запрос отправить через postman. Спасибо
если именно null, то 90% что запрос из жметра отправляется почему-то не такой, как из постмана :)
источник

СЧ

Сергей Чепкасов in QA — Load & Performance
В fiddler очень удобно сравнивать запросы,  отправить через postmam   потом через jmeter, записать и сравнить что уходит в запросе.
источник

СЧ

Сергей Чепкасов in QA — Load & Performance
А если поставить windiff или winmerge то можно даже не глазами сравнивать,  а просто выделить в fiddler два запроса и нажать сравнить.
https://docs.telerik.com/fiddler/Observe-Traffic/Tasks/CompareTraffic
источник

YK

Yuliya Kylosova in QA — Load & Performance
Спасибо за ответ:)
Все оказалось куда прозаичнее - jmeter возвращал то, что ему вернул сервер. Разница лишь в скорости отправки запроса.
В сценарии jmeter запрос отправил слишком быстро и сервер не успел заполнить списки. Postman оказался более медленным, поэтому когда запрос приходил от него, то списки оказывались уже заполненными
источник

AK

Anton Kramarev in QA — Load & Performance
Люблю асинхронщину. Стоит узнать что ещё работает по схожему принципу
источник

VG

Viktor Ganeles in QA — Load & Performance
Yuliya Kylosova
Спасибо за ответ:)
Все оказалось куда прозаичнее - jmeter возвращал то, что ему вернул сервер. Разница лишь в скорости отправки запроса.
В сценарии jmeter запрос отправил слишком быстро и сервер не успел заполнить списки. Postman оказался более медленным, поэтому когда запрос приходил от него, то списки оказывались уже заполненными
В смысле, была последовательность запросов, и jmeter отправлял второй запрос сразу после первого, а надо было с паузой?
источник