Size: a a a

2020 March 23

MB

Mikhail Butalin in Data Engineers
на 3млн блоков? врядли...
источник

АЖ

Андрей Жуков in Data Engineers
Anton Zadorozhniy
YARN_HEAPSIZE это настройка RM/NM, вам нужно вашему конкретному приложению дать больше памяти - сначала в самом spark, а потом (если объем больше чем максимальный контейнер у вас в YARN) увеличить размер максимального контейнера в YARN
но я бы начал с разбора спарковой джобы, чтоб не от балды контейнеры тюнить
источник

AZ

Anton Zadorozhniy in Data Engineers
Андрей Жуков
но я бы начал с разбора спарковой джобы, чтоб не от балды контейнеры тюнить
да, так правильно делать
источник

СХ

Старый Хрыч in Data Engineers
Андрей Жуков
но я бы начал с разбора спарковой джобы, чтоб не от балды контейнеры тюнить
ты просто не современный
источник

AZ

Anton Zadorozhniy in Data Engineers
Sergej Khakhulin
И еще вопрос, thift при запросе жирного SQL выдает Error running query: java.lang.OutOfMemoryError: Java heap space, увеличение YARN_HEAPSIZE до 10gb не помогло
я на всякий случай добавлю что настройки spark и yarn между собой не связаны, yarn просто дает границы (и преемптит контейнеры, если включено), в остальном вам надо осознанно настраивать размеры Spark executor и следить чтобы они были не больше разрешенных YARN пределов, но и не оставалось "пустых" мест, когда контейнер большой а executor маленький
источник

AZ

Anton Zadorozhniy in Data Engineers
опытные пользователи с этим знакомы обычно
источник

SK

Sergej Khakhulin in Data Engineers
Anton Zadorozhniy
я на всякий случай добавлю что настройки spark и yarn между собой не связаны, yarn просто дает границы (и преемптит контейнеры, если включено), в остальном вам надо осознанно настраивать размеры Spark executor и следить чтобы они были не больше разрешенных YARN пределов, но и не оставалось "пустых" мест, когда контейнер большой а executor маленький
спасибо, уже разобрался, просто видимо голова кипела видимо)
источник

SK

Sergej Khakhulin in Data Engineers
Sergej Khakhulin
спасибо, уже разобрался, просто видимо голова кипела видимо)
и еще чуть чуть кипит😂
источник

S

Stanislav in Data Engineers
кстати про переезжающих на 3 версии
кто-то уже раскатывался на 8 рхел/центос хадупы?
все ли там ок?
@xhumanoid
источник

AZ

Anton Zadorozhniy in Data Engineers
Mikhail Butalin
на 3млн блоков? врядли...
если эти блоки были underreplicated то запросто, но если у вас изначально здоровый кластер, нод много, и вы достаете ноду - то не может быть много missing blocks
источник

MB

Mikhail Butalin in Data Engineers
перед отключением ноды проверял специально. всё было чисто. underrep=0
источник

MB

Mikhail Butalin in Data Engineers
вобщем странная ситуация
источник

A

Alex in Data Engineers
Stanislav
кстати про переезжающих на 3 версии
кто-то уже раскатывался на 8 рхел/центос хадупы?
все ли там ок?
@xhumanoid
CentOS Linux release 7.7
на новом, так как сетапился уже почти год назад, а хост систему никто переезжать сейчас не будет
источник

A

Alex in Data Engineers
@Michaelikus
если вы по правильному выключали через декомишен, то сразу на неё запрещаются записи и блоки начинают реплицироваться
если просто погасили, то при активной записи (особенно с replication 1) может появиться много таких блоков, всё зависит от размера кластера и активности записи
источник

A

Alex in Data Engineers
поэтому если нужно рестартануть я ставил на декомишен и через несколько минут рестартовал
как минимум гарантия что не будет в этот момент записей
источник

АЖ

Андрей Жуков in Data Engineers
Alex
@Michaelikus
если вы по правильному выключали через декомишен, то сразу на неё запрещаются записи и блоки начинают реплицироваться
если просто погасили, то при активной записи (особенно с replication 1) может появиться много таких блоков, всё зависит от размера кластера и активности записи
я так понял, человек пытается отработать падение ноды
источник

A

Alex in Data Engineers
ну из падений у меня временные файлы выпадали
источник

A

Alex in Data Engineers
если он видит много отсутсвующих блоков то сразу же нужно посмотреть где эти блоки расположены, это старые таблицы или временные файлы и какой уровень репликации на них стоял
источник

A

Alex in Data Engineers
вроде даже в fsck это пишется
источник

S

Stanislav in Data Engineers
Alex
CentOS Linux release 7.7
на новом, так как сетапился уже почти год назад, а хост систему никто переезжать сейчас не будет
с учетом оставшихся полугода до конца основной поддержки (
понятно, что можно как с пятеркой жить, но что-то так себе (
источник