Это так не работает, к сожалению. Там дело в том, что количество позитивных кейсов конечно и теоретически их можно написать и заскриптовать. А вот количество проблем, которые могут возникнуть бесконечно или близко к этому.
Вполне привычная ситуация- код хорошо покрыт, матрицы составлены и закодированы. Продукт - не годен для использования и полон багов.
Как я говорил, на моём проекте такой процесс работал и за 2 года на продакшене обнаружился примерно один баг.
При этом я видел (и иногда участвовал) десятки проектов, где мануальное и автоматизированное тестирование были четко выделены и разделены по времени, но продукт был полон багов.
Так что тут есть 2 поинта.
Во-первых, тестирование изначально не гарантирует отсутствие багов и никакой процесс не может это изменить. Поэтому нужно оценивать риски и стоимость обнаружения бага в проде и планировать стратегию исходя из этого. Я не предлагаю ATDD как лекарство от всех болезней. Но от большинства из них оно поможет)
Во-вторых, если у тестировщиков низкий уровень, то они накосячят в любом процессе. По моему опыту, команда из 10 ручных тестировщиц и 5 автотестеров не даёт никаких гарантий и прозрачности. Скорее наоборот, увеличивает хаос и перекладывает ответственность, из чего следует большое количество пропущенных багов. А координация этого цирка - отдельный круг ада