Всем привет! Встретил такую проблему — при парсинге csv-файла pyspark-ом на локальной машине все работает отлично, а при запуске на hadoop-кластере — рассылает данные по сегментам и повисает (не пишет ничего в логи). При этом все остальное — файл и парсер — идентичны. Кто-то может подсказать, с чем это может быть связано?
если упираешься в лимит на пользователе то даже по ssh не зайдешь =) (причем ошибка от ссш сервера неинформативна) ну или бывает что от root зайдешь, а потом su уже не сделать, так как пользователь сидит в лимите
много веселья, но это именно если в лимит упираешься
Обычно приложения запускаются не от юзерских подьзтвптелей. Поэтому зайдёшь
проблема что иногда нужно сделать sudo в указанного пользователя и тут ты пролетаешь
про запуск "не от юзерских пользователей" можно рассказать jupyter и его кернелам (зашли по ссш, скопировали connection_info.json, запустили процесс, особо передаём привет sparkmagic)
если это ещё и в докере запущено, то: docker exec --it --user=нужный_юзер container bash зайдет без проблем и даже норм команды будет выполнять (я хз откуда от лимиты в этом случае берет)
а вот такое не работает docker exec --it --user=root container bash; su - нужный_юзер обвалится, так как дескрипторов свободных нету