Да в том то и дело, загадочная ситуация. Включили ACLи на YARNe лишились возможности смотреть историю, поковыряли настройки job history server, выставили везде *, не заработало. Откатили назад как было. И теперь все etlи с конфигами в виде yml файликов, которые работали раньше, перестали работать.
Народ, запущенную джобу в шедуллере можно как-то ограничить по ресурсам на лету? А то у меня один деятель стартанул джобу и забил всё ИО на кластере :(
Да в том то и дело, загадочная ситуация. Включили ACLи на YARNe лишились возможности смотреть историю, поковыряли настройки job history server, выставили везде *, не заработало. Откатили назад как было. И теперь все etlи с конфигами в виде yml файликов, которые работали раньше, перестали работать.
После включения acl в hdfs на каталог /tmp/logs прав у mapred'a хватало? Ну или если вы меняли путь, то не /tmp/logs 😊
После включения acl в hdfs на каталог /tmp/logs прав у mapred'a хватало? Ну или если вы меняли путь, то не /tmp/logs 😊
Не, там проблема была вот в чем. Когда в Web морде ярна пытались посмотреть логи упавшего джоба, то стала вылетать ошибка доступа для dr.who. Я так понимаю, что aclи в ярне - это вещь абстрактная, не имеющая к файловой системе отношения. Проблема доступа именно к соответствующему ресурсу web сервера.
Дата инженеры. Есть очень мелкий тестовый кластер из 3х машин (мастер, 2 воркера). Реплика фактор 2, но нет уверенности в том, что когда добавился второй воркер изначально реплика фактор был 2. Подскажите последовательность действий, чтобы удалить 2ой воркер. (мастер и 1ый воркер отксалировали вертикально) Там мастер еще наркоманский, на нем запускаются джобы и имеет диск для хранения данных (для hdfs).
Дата инженеры. Есть очень мелкий тестовый кластер из 3х машин (мастер, 2 воркера). Реплика фактор 2, но нет уверенности в том, что когда добавился второй воркер изначально реплика фактор был 2. Подскажите последовательность действий, чтобы удалить 2ой воркер. (мастер и 1ый воркер отксалировали вертикально) Там мастер еще наркоманский, на нем запускаются джобы и имеет диск для хранения данных (для hdfs).
ну да проблема с тем, как отключить ноду правильно, не потерять данные... ни разу не делал, гугл не подсказал нормально.. была бы реплика 3, 40 машин, одну бы удалили и не парились вообще, а тут всего 2 датаноды, фактор 2 сейчас..