На сколько я помню, все подобные попытки сделать в лоб закончились ну не очень хорошо. Логи это источник для статистики. Оттуда можно взять данные для приоритета порядка реализации тестов. Можно выделить критичные зоны и соответствующие кейсы. А вот тупо повторять запросы.. ну это тупо :)
а как же дубликаты запросов и тестов ? как же оценка покрытия ? то что вы хотите сделать как-то не совсем похоже на тестирование - просто эмитация запросов юзеров без каких либо качественных характеристик...
Кроме этого будут ещё вручную написанные тесты по классам эквивалентности.
а какой тогда профит от работы по распарсу логов и созданию кейсов на базе них ? я пытаюсь понять, какую пользу вы планируете получить, от таких тестов, если в рамках обычного планирования тестирования у вас будут кейсы...
Выглядит так, как будто планированию тестирования - априори не доверяете...
Странно, что это get и нет цепочек. Такие запросы прекрасно кешируются и оптимизируются. Если цель такая, то список ссылок сделает любой кто владеет немного башем. Скормить можно хоть в jmeter, хоть в облачный сервис.
я думаю симулировать примерно сопоставимую нагрузку для стресса
не, вы тут явно не в том направлении тогда копаете: нагрузка может быть на приложеньку, балансировщик, рендер или какое-то глубоко-расчетный механизм внутри приложеньки;
нужно понимать точку приложения усилий, а не брать за эталон рандомный кусок времени с рандомным интересом пользователей зависящим от кучи неуправляемых факторов...
скажем так, лог запросов может дать примерное представление о зоне интереса пользователей; типа как статистика - а вот расчитывать нагрузочное тестирование и искать допустимые пиковые нагрузки - нужно точечно, понимая какие механизмы и в каком количестве внутри приложения задействованы
А ссылки у клиентов есть какие угодно. Из закладок, из старых постов на форумах, в кешах поисковиков, из старых версий продукта, из истории браузера, ЧПУ, не-ЧПУ, локализованные ЧПУ...