Это из тех мифов, что можно покрыть всё тестами?
Ну, не совсем.
Это скорее про то, что "посчитать покрытие" штука вообще нетривиальная.
Потому что матрица покрытия (задач\требовений\кода, whatever) в целом хорошо позволяет подсветить куски системы, где совсем всё плохо.
Типа "вот этот сервис не покрыт тестами совсем".
Это, конечно, рождает отдельные вопросы типа "а не проверяются ли эти куски в ходе выполнения других сценариев?" и "а нужно ли нам вообще покрывать это тестами?", но да ладно.
Потом ты начинаешь писать на эти куски тестов и возникает вопрос:
А что мы считаем "покрытием"?
1 тест на 1 требование \ фичу - очевидно недостаточно.
Установить какую-то универсальную цифру - не выйдет.
Остается только субъективная оценка тестировщика в духе "мы считаем, что этот кусок покрыт", которая убивает всю суть матрицы покрытия, потому что вместо объективных измеримых параметров дает субъективное представление.
Потом возникает вопрос, что делать с отслеживанием актуальности этого покрытия.
Потому что тесты на кусок функциональности вроде есть, а насколько они актуальны (и насколько их ещё можно считать достаточными для факта "покрытия") - это ещё горочка работы.