Size: a a a

2018 October 30

VR

Vitaliy Roshchupkin in QA Сибирь
Sergei
Вы так и пользовательские ошибки сделаете эталоном, а потом когда их поправят будете доказывать, что разработчики плохие опять сломали :)
Так это нормальный подход. Фиксируем, как есть сейчас и при изменениях смотрим.
источник

NV

Nick Volynkin in QA Сибирь
Sergei
Вы так и пользовательские ошибки сделаете эталоном, а потом когда их поправят будете доказывать, что разработчики плохие опять сломали :)
ошибки можно отфильтровать. Главное, чтобы 200 осталось 200, а 302 тоже осталось или стало 200.
источник

S

Sergei in QA Сибирь
На сколько я помню, все подобные попытки сделать в лоб закончились ну не очень хорошо. Логи это источник для статистики. Оттуда можно взять данные для приоритета порядка реализации тестов. Можно выделить критичные зоны и соответствующие кейсы. А вот тупо повторять запросы.. ну это тупо :)
источник

S

Sergei in QA Сибирь
Закопаетесь в разборах непонятного
источник

NV

Nick Volynkin in QA Сибирь
Anton Tatsienko
а как же дубликаты запросов и тестов ?
как же оценка покрытия ?
то что вы хотите сделать как-то не совсем похоже на тестирование - просто эмитация запросов юзеров без каких либо качественных характеристик...
Кроме этого будут ещё вручную написанные тесты по классам эквивалентности.
источник

S

Sergei in QA Сибирь
То есть вы получите ещё и кучу тестов которые друг друга повторяют функционально?
источник

AT

Anton Tatsienko in QA Сибирь
а какой тогда профит от работы по распарсу логов и созданию кейсов на базе них ?
я пытаюсь понять, какую пользу вы планируете получить, от таких тестов, если в рамках обычного планирования тестирования у вас будут кейсы...

Выглядит так, как будто планированию тестирования - априори не доверяете...
источник

SM

Serge Markov in QA Сибирь
Вот это не оно? https://github.com/Gonzih/log-replay ключевой слово replay
источник

KK

Ksenia Krasotina in QA Сибирь
А никто же не говорил, что они будут полностью заменять тестирование =)
источник

SM

Serge Markov in QA Сибирь
источник

S

Sergei in QA Сибирь
Но какая цель то внедрения такого инструмента?
источник

S

Sergei in QA Сибирь
Организация рабочих мест для сотрудников по разбору результатов?
источник

SM

Serge Markov in QA Сибирь
я думаю симулировать примерно сопоставимую нагрузку для стресса
источник

S

Sergei in QA Сибирь
Странно, что это get и нет цепочек. Такие запросы прекрасно кешируются и оптимизируются. Если цель такая, то список ссылок сделает любой кто владеет немного башем. Скормить можно хоть в jmeter, хоть в облачный сервис.
источник

AT

Anton Tatsienko in QA Сибирь
Serge Markov
я думаю симулировать примерно сопоставимую нагрузку для стресса
не, вы тут явно не в том направлении тогда копаете:
нагрузка может быть на приложеньку, балансировщик, рендер или какое-то глубоко-расчетный механизм внутри приложеньки;

нужно понимать точку приложения усилий, а не брать за эталон рандомный кусок времени с рандомным интересом пользователей зависящим от кучи неуправляемых факторов...
источник

AT

Anton Tatsienko in QA Сибирь
скажем так, лог запросов может дать примерное представление о зоне интереса пользователей;
типа как статистика - а вот расчитывать нагрузочное тестирование и искать допустимые пиковые нагрузки - нужно точечно, понимая какие механизмы и в каком количестве внутри приложения задействованы
источник

SM

Serge Markov in QA Сибирь
согласен, пытался @Nick_Volynkin помочь с его вопросом
источник

NV

Nick Volynkin in QA Сибирь
Sergei
Но какая цель то внедрения такого инструмента?
Переносим огромный массив текста с реализации_А на реализацию_Б. Во имя SEO нельзя потерять ни одной ссылки.
источник

NV

Nick Volynkin in QA Сибирь
А ссылки у клиентов есть какие угодно. Из закладок, из старых постов на форумах, в кешах поисковиков, из старых версий продукта, из истории браузера, ЧПУ, не-ЧПУ, локализованные ЧПУ...
источник

NV

Nick Volynkin in QA Сибирь
Т.е. это инструмент в том числе для того, чтобы проанализировать и выделить кейсы, которые обычным здравым смыслом не выводятся.
источник