Size: a a a

testing_in_python

2020 November 25

M

Mike in testing_in_python
Александр Кот
xdist когда-нибудь пофиксит параллелизацию параметризованных тестов?
а что там за проблема?
источник
2020 November 26

AM

Artur Mustafin in testing_in_python
Александр Кот
xdist когда-нибудь пофиксит параллелизацию параметризованных тестов?
а что там за проблема?
источник

А

Алексей in testing_in_python
Походу никогда уже не узнаем
источник

ТЭ

Тачами Экстович... in testing_in_python
Алексей
Походу никогда уже не узнаем
Да, Кот навел шуму и пропал.
источник

ИС

Игорь Середа... in testing_in_python
Тачами Экстович
Да, Кот навел шуму и пропал.
Типичный Александр.
источник

V

Vikentsi in testing_in_python
Игорь Середа
Типичный Александр.
Так может фиксит? Некогда человеку отвечать.
источник

M

Miki in testing_in_python
источник

M

Miki in testing_in_python
Очевидно что то из этого
источник

АК

Александр Кот... in testing_in_python
Vikentsi
Так может фиксит? Некогда человеку отвечать.
Да, разбирался. Раньше со старта не запускалось, теперь чуть погодя.

Пробовал даже на 1.29 версию откатиться по советам бывалых - не помогло.

Проблема классическая - которую фиксят уже несколько лет от релиза к релизу - конфликт между потоками. Не может собрать параметризацию.

Попробовал сортировки и прочее примменить к параметрам (рецепты закрытых ишью)

Но проблема всплывает вновь. Пока не ясно почему.

Даже убрал генерируемые параметры из параметризации - помого но не сильно, все равно находятся какие-то конфликты потоков.
источник

СС

Сказочный Сникерс... in testing_in_python
Александр Кот
Да, разбирался. Раньше со старта не запускалось, теперь чуть погодя.

Пробовал даже на 1.29 версию откатиться по советам бывалых - не помогло.

Проблема классическая - которую фиксят уже несколько лет от релиза к релизу - конфликт между потоками. Не может собрать параметризацию.

Попробовал сортировки и прочее примменить к параметрам (рецепты закрытых ишью)

Но проблема всплывает вновь. Пока не ясно почему.

Даже убрал генерируемые параметры из параметризации - помого но не сильно, все равно находятся какие-то конфликты потоков.
у тебя видать параметры кривые просто
источник

АК

Александр Кот... in testing_in_python
Сказочный Сникерс
у тебя видать параметры кривые просто
ну да, ну да
источник

СС

Сказочный Сникерс... in testing_in_python
покажи какие у тебя параметры
источник

СС

Сказочный Сникерс... in testing_in_python
и ошибка у тебя какая? Different tests were collected between ….?
источник

АК

Александр Кот... in testing_in_python
Сказочный Сникерс
и ошибка у тебя какая? Different tests were collected between ….?
Different tests were collected betwee
была такая, да, потом убрал автогенерируемые данные, исчезла.

И полези internal error какие-то
типа таких https://pastebin.com/4Pxkhb7R
источник

СС

Сказочный Сникерс... in testing_in_python
а покажи сами параметры
источник

АК

Александр Кот... in testing_in_python
Александр Кот
Different tests were collected betwee
была такая, да, потом убрал автогенерируемые данные, исчезла.

И полези internal error какие-то
типа таких https://pastebin.com/4Pxkhb7R
Я продолжаю с эти разбираться, и вот что раскопал интересного:

параллелизация валит такой стектрейс, если есть xfail, если xfail нет - то ошибки нет, тест помечается в отчете как Failed
если паралелизации нет - то тогда этот тест помечается в отчете как «xfailed»

причем xfail вот в таком любопытном виде оказался D:

@mark.xfail(reason=HTTPError)
def test_link_negative():
   response = requests.get()
   with raises(HTTPError):
       response.raise_for_status()
источник

СС

Сказочный Сникерс... in testing_in_python
так ты в reason указываешь класс
источник

СС

Сказочный Сникерс... in testing_in_python
пайтест не может его сериализовать
источник

DG

Dmitriy Golubtsov in testing_in_python
Александр Кот
Я продолжаю с эти разбираться, и вот что раскопал интересного:

параллелизация валит такой стектрейс, если есть xfail, если xfail нет - то ошибки нет, тест помечается в отчете как Failed
если паралелизации нет - то тогда этот тест помечается в отчете как «xfailed»

причем xfail вот в таком любопытном виде оказался D:

@mark.xfail(reason=HTTPError)
def test_link_negative():
   response = requests.get()
   with raises(HTTPError):
       response.raise_for_status()
А текстом или булевым значением ошибку не пробовал указать?
источник

DG

Dmitriy Golubtsov in testing_in_python
Александр Кот
Я продолжаю с эти разбираться, и вот что раскопал интересного:

параллелизация валит такой стектрейс, если есть xfail, если xfail нет - то ошибки нет, тест помечается в отчете как Failed
если паралелизации нет - то тогда этот тест помечается в отчете как «xfailed»

причем xfail вот в таком любопытном виде оказался D:

@mark.xfail(reason=HTTPError)
def test_link_negative():
   response = requests.get()
   with raises(HTTPError):
       response.raise_for_status()
источник