Size: a a a

QA — Load & Performance

2019 November 26

R

Rita Greyreality 🌈 in QA — Load & Performance
я им говорю что мы же подписали NDA хД но пока не прогибаются. мы создавали нужное кол-во заказов тестами и смотрели как sql запоросы отрабатывают и на скко ответ апи замедляется. но создавать такой каждый раз не удобно. дамп есть но повер него нужно будет накатывать скрипты из вышедших релизов
источник

M

Max in QA — Load & Performance
не можете самостоятельно договориться, эскалируйте проблему тому, кто может решить этот вопрос. Можете попробовать решить вопрос "вслепую" нагружая, как вам кажется правильным, но есть риск получить совершенно иной результат. Ищите того, кто донесет до бизнеса, что это нужно в первую очередь ему
источник

R

Rita Greyreality 🌈 in QA — Load & Performance
Max
объемное делается не для апишек, это в основном работа с БД
кажется я не совсем понимаю как делать объемное. я пока следила За временем ответа в зав-сти от кол-ва rows в бд. это не верно?
источник

M

Max in QA — Load & Performance
объемное проводится на различных объемах бд и сравнивается. искать зависимость производительности от количества строк в таблице, на мой взгляд, это как то излишне
источник

R

Rita Greyreality 🌈 in QA — Load & Performance
Ilya
+1. На одном из прошлых мест было партиционирование по дням, поэтому были тесты длительностью пару дней, посмотреть как деградирует система в зависимости от данных при постоянной нагрузке.
На текущем проекте восстанавливаем данные из дампа прода и размножаем, после чего проводим тест.
Смотрите что вам проще внедрить и поддерживать.
а как размоножаете? у нас куча зависимостей от id. легко сделать данные невалидными...
и какого плана тесты гоняете? типа сет популярных на проде юзкейсов в % соотношении разбитых и им грузите два дня?
источник

I

Ilya in QA — Load & Performance
Rita Greyreality 🌈
они не хотят давать прод. там инфа по транзакциям. банк картам. паспортам. я им предлогала за анонимизировать данные. но им все равно не нра. типа я все равно могу эти данные использовать и продать статистику конкурентам о_О
Конечно можете. А еще можете провести тестирование, которое будет нерелевантно тому что на проде. Или затянуть сроки тестирования, т. к. будете разрабатывать свою систему генерации данных. У всего есть своя цена и свои риски.
источник

I

Ilya in QA — Load & Performance
Rita Greyreality 🌈
а как размоножаете? у нас куча зависимостей от id. легко сделать данные невалидными...
и какого плана тесты гоняете? типа сет популярных на проде юзкейсов в % соотношении разбитых и им грузите два дня?
Скриптом в БД. Всё индивидуально. Возможно не ваш вариант размножать, т. к. логика будет сложная
Сценарий один, просто смотрим зависимость отклика по транзакциям от размера БД
источник

AR

Artem Rozhkov in QA — Load & Performance
Max
объемное проводится на различных объемах бд и сравнивается. искать зависимость производительности от количества строк в таблице, на мой взгляд, это как то излишне
Я правильно понимаю, что
для данного тестирования надо  будет забить базу данных.

И по любому прийдется дергать методы апи, которые не посредственно связаны с бд?
Или саму базу мучить ?
источник

M

Max in QA — Load & Performance
Artem Rozhkov
Я правильно понимаю, что
для данного тестирования надо  будет забить базу данных.

И по любому прийдется дергать методы апи, которые не посредственно связаны с бд?
Или саму базу мучить ?
а это уже зависит от того, какой вам нужен результат и что вы пытаетесь выяснить. вы можете брать по сути любой тест (к примеру, тест со стабильной нагрузкой) и проводить его в одних и тех же условиях, но на  различном  объеме данных. и смотреть тренды, деградируете или нет в зависимости от размера БД
источник

I

Ilya in QA — Load & Performance
Rita Greyreality 🌈
кажется я не совсем понимаю как делать объемное. я пока следила За временем ответа в зав-сти от кол-ва rows в бд. это не верно?
Кол-во строк не всегда может быть однозначно связано с размером БД. Вам бы снять статистику с БД по запросам во время нагрузки. Какие запросы чаще и дольше других выполняются? Условно, если вы вызываете API на вставку чего-либо, перед этим идет поиск, который замедляется с размером БД потому что: запрос неэффективно написан, индекса на поле нет и т.п.
И да, мы всегда смотрели два показателя: кол-во объектов в БД и физический размер.
источник

K

Kira in QA — Load & Performance
Viktor Ganeles
Ага, питер!
Питер)))
источник

R

Rita Greyreality 🌈 in QA — Load & Performance
Ilya
Кол-во строк не всегда может быть однозначно связано с размером БД. Вам бы снять статистику с БД по запросам во время нагрузки. Какие запросы чаще и дольше других выполняются? Условно, если вы вызываете API на вставку чего-либо, перед этим идет поиск, который замедляется с размером БД потому что: запрос неэффективно написан, индекса на поле нет и т.п.
И да, мы всегда смотрели два показателя: кол-во объектов в БД и физический размер.
вот эт интересная тема. я уже создала таску на импорт метрик из перформанс схемы в графану и наш mysql эксперт (у которого нет времени на консультирования нашей системы) выбрал пару графиков. смотрю на них и там инфы нет. если ли у вас пример json такого дашборда который можно  себе взять? хД или мб статья проверенная по которой можно себе эт настроить?
источник

I

Ilya in QA — Load & Performance
Rita Greyreality 🌈
вот эт интересная тема. я уже создала таску на импорт метрик из перформанс схемы в графану и наш mysql эксперт (у которого нет времени на консультирования нашей системы) выбрал пару графиков. смотрю на них и там инфы нет. если ли у вас пример json такого дашборда который можно  себе взять? хД или мб статья проверенная по которой можно себе эт настроить?
Там где это я делал, мы не использовали графану. Набор bash/питон скриптов + своя визуализация.
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
Rita Greyreality 🌈
вот эт интересная тема. я уже создала таску на импорт метрик из перформанс схемы в графану и наш mysql эксперт (у которого нет времени на консультирования нашей системы) выбрал пару графиков. смотрю на них и там инфы нет. если ли у вас пример json такого дашборда который можно  себе взять? хД или мб статья проверенная по которой можно себе эт настроить?
Доклад недавно смотрел
http://www.highload.ru/moscow/2018/abstracts/4259

В нем есть описание графиков. И рассказ про OpenSource инструменты: https://www.percona.com/software/mysql-tools
источник

ВС

Вячеслав Смирнов in QA — Load & Performance
По рассказу они готовые, удобные
источник

R

Rita Greyreality 🌈 in QA — Load & Performance
@IlyaVladimirovich но по сути вы метрики с перформанс схемы mysql дб брали? значит если они есть то можно и ф графане построить или через парсинг логов делали?>< звучит сложновато  @smirnovqa спасибо. гляну вечером) вдохновлюсь
источник

R

Rita Greyreality 🌈 in QA — Load & Performance
Max
объемное проводится на различных объемах бд и сравнивается. искать зависимость производительности от количества строк в таблице, на мой взгляд, это как то излишне
есть такой вариант эмуляции нагрузки. сделать jmx c топов юзеркейсов и процентным разбиием траффика по даным с прода. поделить трафик с помощью плагина throughput-controller-jmeter и гонять такой тест как soak в течении дней или на разных объема БД (для этого нам все таки нужна копия прода)
источник

I

Ilya in QA — Load & Performance
Rita Greyreality 🌈
@IlyaVladimirovich но по сути вы метрики с перформанс схемы mysql дб брали? значит если они есть то можно и ф графане построить или через парсинг логов делали?>< звучит сложновато  @smirnovqa спасибо. гляну вечером) вдохновлюсь
У нас был оракл и постгря
источник

A

Anastasia in QA — Load & Performance
Подскажите, кто-то как-то использует jmeter с gitlab'ом в пайплайнах? есть ли возможность плагином или ещё как-то проверять критерии прошел\не прошел теста?
источник

ΙΤ

Ιωάννης Τσεκούρι in QA — Load & Performance
Anastasia
Подскажите, кто-то как-то использует jmeter с gitlab'ом в пайплайнах? есть ли возможность плагином или ещё как-то проверять критерии прошел\не прошел теста?
а какие критерии?)
источник