Size: a a a

2019 July 09

AK

Akeel Kumar in Data Engineers
What all technology i should start with?
Please help
источник

AB

Andrei Boaghe in Data Engineers
Alexander Chermenin
df.write
 .format("kafka")
 .option("kafka.bootstrap.servers", "host1:port1,host2:port2")
 .option("topic", "topic1")
 .save()
спасибо, но это не работает с версией спарка 2.1.0
источник

AC

Alexander Chermenin in Data Engineers
Andrei Boaghe
спасибо, но это не работает с версией спарка 2.1.0
ну тогда либо ваш вариант, либо какая-нибудь либа, вроде https://spark-packages.org/package/BenFradet/spark-kafka-writer, либо обновить спарк :)
источник

YI

Yukari I in Data Engineers
Это спаммер только что был
источник

YI

Yukari I in Data Engineers
Его изо всех тематических каналов повыпиливали
источник

GP

Grigory Pomadchin in Data Engineers
я заметил, спасибо
источник
2019 July 10

SZ

Sergey Zhemzhitsky in Data Engineers
Товарищи инженеры, кто пробовал DataProc из Яндекс.Облака?
К чему он ближе с точки зрения operations - к GC DataProc или к AWS EMR?
источник

B

Bogdan in Data Engineers
Для Кассандры есть бесплатные ГУИ клиенты?
источник

СХ

Старый Хрыч in Data Engineers
Bogdan
Для Кассандры есть бесплатные ГУИ клиенты?
нет
источник

СХ

Старый Хрыч in Data Engineers
но если просто посмотреть кейспейсы
источник

СХ

Старый Хрыч in Data Engineers
можно через визуалстужию код
источник

R

Roman in Data Engineers
Bogdan
Для Кассандры есть бесплатные ГУИ клиенты?
Есть jdbc драйвера для неё.
И есть разные клиенты, которые умеет через jdbc кастомные.
источник

AY

Aleksey Yakushev in Data Engineers
DevCenter 1.5.0
источник

VS

Vadim Shatalov in Data Engineers
Bogdan
Для Кассандры есть бесплатные ГУИ клиенты?
источник

B

Bogdan in Data Engineers
Спасибо
источник

AB

Andrei Boaghe in Data Engineers
Привет всем,
Может кто помочь с интеграцией Spark/Kafka:

Надо загрузить DataFrame в Kafka (т.е передать messages).
Мы не используем Spark Streaming. Работаем со SparSQL 2.1.0.
И тут мне пришел request, что нужно иметь delay, т.е.: отрпавил 10.000 строк, жду 20 сек, отправляю дальше. Есть ли нормальный (нативный) способ сделать это, если работаю только со Spark SQL + kafka-clients? Или надо писать что-то своё?).
Ниже код, который использую сейчас:
источник

AB

Andrei Boaghe in Data Engineers
источник

AB

Andrei Boaghe in Data Engineers
Поможет ли Spark Streaming решить эту проблему? :)
источник

A

Alexander in Data Engineers
А можно вопрос: зачем новый продюсер на каждую партицую?
источник

A

Alex in Data Engineers
Ну выполняются то они на воркерах :) там поднялись, записали, заглушились
источник