Size: a a a

2019 June 26

СХ

Старый Хрыч in Data Engineers
или просто от хоста
источник

СХ

Старый Хрыч in Data Engineers
😐вот реально, поражаюсь, ладно спарк только засунуть в докер+кубер
источник

K

KrivdaTheTriewe in Data Engineers
Oleg Ilinsky
Привет!
Вопрос)
Есть HDP3 со спарком. Есть докеры с airflow (это, на самом деле, не важно, главное, что это всё в докере). И у меня не получается запустить спарк джобы в cluster mode из докера на кластере.
Есть ворнинг 19/06/26 11:48:37 WARN yarn.Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPARK_HOME. и  различные ошибки на тему Lib not found.
Все конфиги я скачал из ambari и закинул в контейнер (SPARK, YARN, HDFS, HADOOP) и завёл переменные окружения.
Мб кто знает, нужно ли что-то ещё добавить, чтобы всё заработало?
При запуске spark-submit/spark-shell с неймноды всё ок работает и в client и в cluster модах.
А как вы подготовили образ ?
источник

K

KrivdaTheTriewe in Data Engineers
Вам нужно чтобы в докер образе из которого вы сабмитите джобу  находились конфигурации вашего кластера, и все джарники, в идеале все тоже самое , что и структура обычной ноды вашего кластера
источник

OI

Oleg Ilinsky in Data Engineers
KrivdaTheTriewe
А как вы подготовили образ ?
я взял вот этот докерфайл (ну и сопутствующие ему файлики) https://github.com/apache/airflow/blob/master/Dockerfile и докинул в него хадупные либы, конфиги и переменные окружения
compose взял из puckel и немного доработал
источник

K

KrivdaTheTriewe in Data Engineers
Oleg Ilinsky
я взял вот этот докерфайл (ну и сопутствующие ему файлики) https://github.com/apache/airflow/blob/master/Dockerfile и докинул в него хадупные либы, конфиги и переменные окружения
compose взял из puckel и немного доработал
Ну судя по всему не так докинули )
источник

K

KrivdaTheTriewe in Data Engineers
Там аккуратненько нужно
источник

СХ

Старый Хрыч in Data Engineers
KrivdaTheTriewe
Ну судя по всему не так докинули )
скорее всего не видят друг друга в компосе компоненты
источник

UD

Uncel Duk in Data Engineers
Старый Хрыч
😐вот реально, поражаюсь, ладно спарк только засунуть в докер+кубер
dll hell
источник

UD

Uncel Duk in Data Engineers
как ты предлагаешь паковать разные рантаймы того же тензорфлоу
источник

K

KrivdaTheTriewe in Data Engineers
Старый Хрыч
скорее всего не видят друг друга в компосе компоненты
Причём тут композ
источник

OI

Oleg Ilinsky in Data Engineers
KrivdaTheTriewe
Ну судя по всему не так докинули )
ну вот да
https://archive.apache.org/dist/spark/spark-2.3.2/spark-2.3.2-bin-without-hadoop.tgz
https://archive.apache.org/dist/hadoop/common/hadoop-3.1.2/hadoop-3.1.2.tar.gz
https://archive.apache.org/dist/hive/hive-3.1.1/apache-hive-3.1.1-bin.tar.gz

Я вот отсюда брал.
Причём на мастере сами джобы видны, но они потом падают с lib not found.
источник

СХ

Старый Хрыч in Data Engineers
делать образ qcow2
источник

K

KrivdaTheTriewe in Data Engineers
Uncel Duk
как ты предлагаешь паковать разные рантаймы того же тензорфлоу
Человек предпочитает не работать, чтобы не терять результатов
источник

OI

Oleg Ilinsky in Data Engineers
Так, подожжите. Хадуп развернут по классике. В докере только компоненты airflow.
источник

UD

Uncel Duk in Data Engineers
Старый Хрыч
делать образ qcow2
теперь запусти в ярне
источник

UD

Uncel Duk in Data Engineers
источник

UD

Uncel Duk in Data Engineers
Oleg Ilinsky
Привет!
Вопрос)
Есть HDP3 со спарком. Есть докеры с airflow (это, на самом деле, не важно, главное, что это всё в докере). И у меня не получается запустить спарк джобы в cluster mode из докера на кластере.
Есть ворнинг 19/06/26 11:48:37 WARN yarn.Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPARK_HOME. и  различные ошибки на тему Lib not found.
Все конфиги я скачал из ambari и закинул в контейнер (SPARK, YARN, HDFS, HADOOP) и завёл переменные окружения.
Мб кто знает, нужно ли что-то ещё добавить, чтобы всё заработало?
При запуске spark-submit/spark-shell с неймноды всё ок работает и в client и в cluster модах.
тупой вопрос, все нужные джарники закинули в образ?
источник

K

KrivdaTheTriewe in Data Engineers
Oleg Ilinsky
Так, подожжите. Хадуп развернут по классике. В докере только компоненты airflow.
Если напомните в выхи и проблема актуальна будет , может смогу около рабочий конфиг раздобыть
источник

UD

Uncel Duk in Data Engineers
В хортоне просто свои костыли еще есть, типа hive warehouse connector, попробуйте взять их пакеты, либо стянуть джарники с их нексуса
источник