Вопрос по PySpark + написание тестов: возможно ли запускать тесты параллельно в разных процессах (например, используя `pytest-xdist`) но используя одну локальную спарк сессию на все потоки?
я просто на тест сеты разделял, а в женкинсе запускал разные тест сеты в паралель. на каждый тест сет 1 spark session только создается, на нем могут и 400 тестов исполняться
как-то мне показалось, что так меньше всего приседаний
в скалатест, кстати, параллельно исполняется из коробки вроде, несколько тредов используют одну и ту же сессию. с путоном и его тредами - хз, как там себя путонская спарк сессия ведет
не пользовался. только обычным путестом. один вызов путест - одна спарк сессия - куча тестов на ней. а параллелить тесты на 1 сессии - мало смысла, я думаю