Size: a a a

2019 June 07

A

Alex in Data Engineers
Oleksandr Averchenko
Хадуп мёртв. Это было вынужденное решение эпохи слабых серверов.
Пошёл за попкорном и ручкой с листком, записывать
источник

AZ

Anton Zadorozhniy in Data Engineers
Anton Kovalenko
Без какой-то своей добавленной стоимости, которая востребована рынком - скорее всего нет. Но так обычно никто и не делает.
опен кор предполагает что есть какие-то компоненты и сервисы только за деньги, и там было начало дискусии про вчерашний краш клаудеры и пивотала на эту тему
источник

СХ

Старый Хрыч in Data Engineers
мне тут недавно говорили го кодеры, что рсубд мертвы
источник

СХ

Старый Хрыч in Data Engineers
это правда?
источник

R

Renarde in Data Engineers
Всем доброе утро!
Возник вопрос, как аккуратно тестировать спарковские приложения.
Суть такая - у нас есть Spark Scala приложение, которое имеет аргументы из command-line и внутри него стартует спарк:
var options = new JobOptions
optionsOrExit(args.options)
val spark = new SparkSession.Builder().getOrCreate
val integrator = Integrator(param1=options.param1)
integrator.performIntegration(spark)
В тестах это обкладывается стартующим в начале всех тестов спарком:
train WithSparkContext extends BeforeAndAfterAll {

 override def beforeAll() {
 var spark = SparkSession.builder().getOrCreate
 }
}
Проблема в том что передача аргументов и запуск спарка остаются с нулевым code coverage. Как аккуратно мокнуть это поведение?
источник

IK

Ilya Karpov in Data Engineers
а не заменяют ли хадуп кубером нонче? вроде поудобней им шедулить ресурсы
источник

ЕГ

Евгений Глотов in Data Engineers
А данные куда складывать?
источник

AZ

Anton Zadorozhniy in Data Engineers
Renarde
Всем доброе утро!
Возник вопрос, как аккуратно тестировать спарковские приложения.
Суть такая - у нас есть Spark Scala приложение, которое имеет аргументы из command-line и внутри него стартует спарк:
var options = new JobOptions
optionsOrExit(args.options)
val spark = new SparkSession.Builder().getOrCreate
val integrator = Integrator(param1=options.param1)
integrator.performIntegration(spark)
В тестах это обкладывается стартующим в начале всех тестов спарком:
train WithSparkContext extends BeforeAndAfterAll {

 override def beforeAll() {
 var spark = SparkSession.builder().getOrCreate
 }
}
Проблема в том что передача аргументов и запуск спарка остаются с нулевым code coverage. Как аккуратно мокнуть это поведение?
мб проще аксептанс тестом это закрыть, а не мокать?
источник

λ

λoλzod in Data Engineers
Ilya Karpov
а не заменяют ли хадуп кубером нонче? вроде поудобней им шедулить ресурсы
Это ж разные во всех смыслах вещи
источник

GG

George Gaál in Data Engineers
Евгений Глотов
А данные куда складывать?
в С3
источник

GG

George Gaál in Data Engineers
λoλzod
Это ж разные во всех смыслах вещи
у них есть пересечение - распределенность, менеджмент ресурсов (вычислительных)
источник

λ

λoλzod in Data Engineers
George Gaál
у них есть пересечение - распределенность, менеджмент ресурсов (вычислительных)
Менеджмент ресурсов там кардинально разный
источник

λ

λoλzod in Data Engineers
Так как ресурсы разной природы
источник

GG

George Gaál in Data Engineers
ну, спарк можно поверх куба запускать
источник

λ

λoλzod in Data Engineers
А серьезно? Нифига себе.
источник

GG

George Gaál in Data Engineers
λoλzod
Менеджмент ресурсов там кардинально разный
ну, если абстрагироваться совсем - одинаково. Если вдаваться в детали - да, разный
источник

GG

George Gaál in Data Engineers
это на какую из моих реплик
источник

A

Alex in Data Engineers
Ilya Karpov
а не заменяют ли хадуп кубером нонче? вроде поудобней им шедулить ресурсы
hdfs куда пихать?
источник

AZ

Anton Zadorozhniy in Data Engineers
Ilya Karpov
а не заменяют ли хадуп кубером нонче? вроде поудобней им шедулить ресурсы
это был троллинговый наброс видимо, хадуп как разделение компьюта и хранилища, где хранилище объектное - живее всех живых, просто у кого-то по какой-то возможности нет С3/блоб стораджа, и они варят HDFS
источник

GG

George Gaál in Data Engineers
минутка рекламы https://banzaicloud.com/tags/spark/
источник