Знатоки спарка подскажите пожалуйста как можно решить такую проблему.
Есть большой граф вычислений с кучей join/groupby и прочего. На одном из stage непонятно с чем связанного (по картинке графа вычислений это не join) жуткий перекос в данных, одна таска принимает слишком много.
Как мне проще всего найти нужный проблемый stage, чтобы прооптимизировать его?
пока самый тупой вариант вижу навешивать сохранение на диск после каждого groupby и join, чтобы найти эту операцию. Но он довольно долгий.
есть еще такая вещь как sparkContext.setJobGroup , но она сетит лейбл в ui для целой джобы, но для stage нельзя такое нельзя разметить