Size: a a a

2019 February 27

AM

Alexey Makhov in devleads chat
Звучит, как мрак полнейший
источник

EE

Ekaterina Evtukhova in devleads chat
Ruslan Abdullaev
Всем привет!

У меня пара вопросов по best practices взаимодействия разработчиков и QA

Вводные данные: небольшая команда, работающая по Agile, тестировщики яляются ее частью: 2 тестировщика на 4 разработчиков.

Вопросы:

1. В зависимости от сложности задач в спринте бывает так, что к концу спринта задач на разработку не остается, а QA не успевают их все протестировать, и в итоге хвост переезжает на тестирование в следующий спринт. Насколько это нормальная практика?

2.1. При наборе задач в очередной спринт оценка в SP проводится относительно эталонной задачи. При этом в эталонную задачу также входит и тестирование этой эталонной задачи. Тестировщики присутствуют на покере и иногда высказывают недовольство тем, что на тестирование той или иной задачи может уйти больше времени, чем планируется. В то же время МП и разработчики могут быть не согласны с позицией QA.

2.2. Также случается так, что разработчик выполняет задачу в одном спринте, а тестироваться она начинает уже в другом.

Правильно ли в случаях 2.1 и 2.2 при расчете времени тестирования полностью полагаться на оценку в SP, данную QA? Как в ваших командах QA участвуют в формировании итоговой оценки задачи в SP?

3. Этот пункт вытекает из двух предыдущих. Разработчики и МП иногда получают со стороны QA упреки о том, что тестирование задач сложнее, чем кажется. Частенько это бывает как раз-таки на покере. Есть ли в ваших командах практики, когда тестировщики ведут просветительскую работу среди разработчиков?
1) мы сразу разбиваем тестирование и разработку на разные задчи, объединенные в эпик, если задачи большие и мы сразу понимаем что тестирвоание в этом спринте не успеется. заносим в текущий спринт только разработку, задачу по тестирвоанию как отдельную отодвигаем в след
источник

EE

Ekaterina Evtukhova in devleads chat
2) по оценке тестирования тестировщик всегда прав - ему же делать эту работу. если хотите помочь - пишите тесты, рассказывайте тестировщикам какая часть функциональности покрыта ими, это поможет имбыть уверенными в качестве и при этом не тратить тонны времени впустую
источник

ТС

Тестировщик Собеседований in devleads chat
Работал по той схеме, которую описал Руслан, практически один в один. Нормально так работал. Могу рассказать с позиции тестировщика, т.к сам тестер
источник

RA

Ruslan Abdullaev in devleads chat
Большая задача может быть взята в разработку ближе к середине спринта и делаться до его окончания. Такое присходит, когда в начало спринта ставятся наиболее критичные баги, которые нужно поправить как можно быстрее
источник

ТС

Тестировщик Собеседований in devleads chat
Я еще не видел компаний, где бы тестировщика воспринимали как полноценного участника обсуждения)
источник

RA

Ruslan Abdullaev in devleads chat
В таком случае задача возвращается разработчику, и он ее доделывает. Бывали грустные случаи, когда задача туда-сюда гонялась в течение спринта много раз
источник

RA

Ruslan Abdullaev in devleads chat
Тестировщик Собеседований
Работал по той схеме, которую описал Руслан, практически один в один. Нормально так работал. Могу рассказать с позиции тестировщика, т.к сам тестер
С большим вниманием отнесусь к вашему мнению.
источник

RY

Ruslan Yuldashev in devleads chat
Ruslan Abdullaev
В таком случае задача возвращается разработчику, и он ее доделывает. Бывали грустные случаи, когда задача туда-сюда гонялась в течение спринта много раз
Задача считается выполненной, если она протестирована тестировщиком (или тем, кто выполняет эту роль) и выкачена на стейджинг среду. В противном случае - не выполнена. Соотв. в спринт надо закладывать и разработку, и деплой, и тестирование. Если какой-то из этих этапов пропущен в спринте - задача не сделана в спринте.
источник

IS

Ilya Sorokin in devleads chat
Тестировщик Собеседований
Я еще не видел компаний, где бы тестировщика воспринимали как полноценного участника обсуждения)
Я видел;)
источник

А

Артём in devleads chat
Тестировщик Собеседований
Я еще не видел компаний, где бы тестировщика воспринимали как полноценного участника обсуждения)
Работаю в такой компании, тестировщик стал одним из лвпр по некоторым вопросам в компании.
источник

RY

Ruslan Yuldashev in devleads chat
Ruslan Yuldashev
Задача считается выполненной, если она протестирована тестировщиком (или тем, кто выполняет эту роль) и выкачена на стейджинг среду. В противном случае - не выполнена. Соотв. в спринт надо закладывать и разработку, и деплой, и тестирование. Если какой-то из этих этапов пропущен в спринте - задача не сделана в спринте.
То есть нельзя сказать «разрабы свою часть сделали», значит задача выполнена. Эта часть без деплоя и тестирования - ничего не стоит.
источник

IS

Ilya Sorokin in devleads chat
Ruslan Abdullaev
Всем привет!

У меня пара вопросов по best practices взаимодействия разработчиков и QA

Вводные данные: небольшая команда, работающая по Agile, тестировщики яляются ее частью: 2 тестировщика на 4 разработчиков.

Вопросы:

1. В зависимости от сложности задач в спринте бывает так, что к концу спринта задач на разработку не остается, а QA не успевают их все протестировать, и в итоге хвост переезжает на тестирование в следующий спринт. Насколько это нормальная практика?

2.1. При наборе задач в очередной спринт оценка в SP проводится относительно эталонной задачи. При этом в эталонную задачу также входит и тестирование этой эталонной задачи. Тестировщики присутствуют на покере и иногда высказывают недовольство тем, что на тестирование той или иной задачи может уйти больше времени, чем планируется. В то же время МП и разработчики могут быть не согласны с позицией QA.

2.2. Также случается так, что разработчик выполняет задачу в одном спринте, а тестироваться она начинает уже в другом.

Правильно ли в случаях 2.1 и 2.2 при расчете времени тестирования полностью полагаться на оценку в SP, данную QA? Как в ваших командах QA участвуют в формировании итоговой оценки задачи в SP?

3. Этот пункт вытекает из двух предыдущих. Разработчики и МП иногда получают со стороны QA упреки о том, что тестирование задач сложнее, чем кажется. Частенько это бывает как раз-таки на покере. Есть ли в ваших командах практики, когда тестировщики ведут просветительскую работу среди разработчиков?
Привет! Scrum? Длина спринта?
источник

RA

Ruslan Abdullaev in devleads chat
Должен ли техлид проверять задачу от аналитиков и заворачивать ее до этапа оценки на доработку? Не всегда аналитики учитывают все нюансы
источник

EE

Ekaterina Evtukhova in devleads chat
Ruslan Abdullaev
Должен ли техлид проверять задачу от аналитиков и заворачивать ее до этапа оценки на доработку? Не всегда аналитики учитывают все нюансы
проверять может вообще не только техлид но и команда. не техлид же один будет ее делать, и может быть так что техлиду все ок, а у команду будут вопросы
источник

IS

Ilya Sorokin in devleads chat
Ruslan Abdullaev
Всем привет!

У меня пара вопросов по best practices взаимодействия разработчиков и QA

Вводные данные: небольшая команда, работающая по Agile, тестировщики яляются ее частью: 2 тестировщика на 4 разработчиков.

Вопросы:

1. В зависимости от сложности задач в спринте бывает так, что к концу спринта задач на разработку не остается, а QA не успевают их все протестировать, и в итоге хвост переезжает на тестирование в следующий спринт. Насколько это нормальная практика?

2.1. При наборе задач в очередной спринт оценка в SP проводится относительно эталонной задачи. При этом в эталонную задачу также входит и тестирование этой эталонной задачи. Тестировщики присутствуют на покере и иногда высказывают недовольство тем, что на тестирование той или иной задачи может уйти больше времени, чем планируется. В то же время МП и разработчики могут быть не согласны с позицией QA.

2.2. Также случается так, что разработчик выполняет задачу в одном спринте, а тестироваться она начинает уже в другом.

Правильно ли в случаях 2.1 и 2.2 при расчете времени тестирования полностью полагаться на оценку в SP, данную QA? Как в ваших командах QA участвуют в формировании итоговой оценки задачи в SP?

3. Этот пункт вытекает из двух предыдущих. Разработчики и МП иногда получают со стороны QA упреки о том, что тестирование задач сложнее, чем кажется. Частенько это бывает как раз-таки на покере. Есть ли в ваших командах практики, когда тестировщики ведут просветительскую работу среди разработчиков?
Прочтите всей командой книгу «Цель». Там есть ответ, почему так всегда делают и почему это контрпродуктивно
источник

AM

Alexey Makhov in devleads chat
Ruslan Abdullaev
В таком случае задача возвращается разработчику, и он ее доделывает. Бывали грустные случаи, когда задача туда-сюда гонялась в течение спринта много раз
Это значит, что с разработкой беда
источник

RA

Ruslan Abdullaev in devleads chat
Оценка в SP ставится во время покера. Каждый член команды выставляет свою, и она приводится к некоторому консенсусу. Есть случаи, когда в задаче уже во время реализации обнаруживаются недостаточные требования, не описанные аналитиками. Если это какие-то мелочи, то решается по ходу обычным общением. Если крупный промах аналитика - задача снимается со спринта. К сожалению, на нее уже потратили время, а этих трат можно было избежать, проверив задачу до покера. В ваших командах есть человек, который "тестирует аналитику"?
источник

RA

Ruslan Abdullaev in devleads chat
Ilya Sorokin
Прочтите всей командой книгу «Цель». Там есть ответ, почему так всегда делают и почему это контрпродуктивно
Можно автора книги? Гугл очень много книг с таким названием насыпал
источник

AM

Alexey Makhov in devleads chat
Ruslan Abdullaev
Всем привет!

У меня пара вопросов по best practices взаимодействия разработчиков и QA

Вводные данные: небольшая команда, работающая по Agile, тестировщики яляются ее частью: 2 тестировщика на 4 разработчиков.

Вопросы:

1. В зависимости от сложности задач в спринте бывает так, что к концу спринта задач на разработку не остается, а QA не успевают их все протестировать, и в итоге хвост переезжает на тестирование в следующий спринт. Насколько это нормальная практика?

2.1. При наборе задач в очередной спринт оценка в SP проводится относительно эталонной задачи. При этом в эталонную задачу также входит и тестирование этой эталонной задачи. Тестировщики присутствуют на покере и иногда высказывают недовольство тем, что на тестирование той или иной задачи может уйти больше времени, чем планируется. В то же время МП и разработчики могут быть не согласны с позицией QA.

2.2. Также случается так, что разработчик выполняет задачу в одном спринте, а тестироваться она начинает уже в другом.

Правильно ли в случаях 2.1 и 2.2 при расчете времени тестирования полностью полагаться на оценку в SP, данную QA? Как в ваших командах QA участвуют в формировании итоговой оценки задачи в SP?

3. Этот пункт вытекает из двух предыдущих. Разработчики и МП иногда получают со стороны QA упреки о том, что тестирование задач сложнее, чем кажется. Частенько это бывает как раз-таки на покере. Есть ли в ваших командах практики, когда тестировщики ведут просветительскую работу среди разработчиков?
1. "Тестирование" задачи должно начинаться одновременно с ее разработкой
2.1Если ПМ и разработчики не согласны – пусть тестируют. Сами
2.2 тогда у вас задача на два спринта, что само по себе не очень
3 я бы тестировщику еще и биту выдал. для убедительности
источник