Size: a a a

2021 March 05

P

Pavel in Data Engineers
Ой нет точно)))
Вы получаете абсолютно неуправляемый процесс
источник

АР

Андрей Романов... in Data Engineers
Anton Zadorozhniy
и это будет транзакционный insert select?
не думаю что он будет транзакционный, если иногда консьюминг в таблицу может сломаться по причинам нестабильности той же сети, например
источник

P

Pavel in Data Engineers
Anton Zadorozhniy
и это будет транзакционный insert select?
У клика транзакций нет
источник

АР

Андрей Романов... in Data Engineers
Pavel
Ой нет точно)))
Вы получаете абсолютно неуправляемый процесс
возможно, я просто предложил один из вариантов
источник

АР

Андрей Романов... in Data Engineers
Pavel
У клика транзакций нет
кстати, да
источник

AZ

Anton Zadorozhniy in Data Engineers
чот как-то не очень
источник

P

Pavel in Data Engineers
Андрей Романов
возможно, я просто предложил один из вариантов
Да, мы тоже в самом начале гола 2 назад расссматрмвали кафка-движ для кликхауса, но очень быстро отказались. И слава богу
источник

P

Pavel in Data Engineers
Короч, нихуя нового не изобрели))
источник

AZ

Anton Zadorozhniy in Data Engineers
кмк такие логистические компоненты надо делать максимально независимыми, чтобы какой-нибудь апгрейд или аутадж МРР базы не каскадировался сразу на кучу процессов
источник

AZ

Anton Zadorozhniy in Data Engineers
по этой же причине делать логистику на spark streaming это довольно специфичное решение
источник

P

Pavel in Data Engineers
Anton Zadorozhniy
по этой же причине делать логистику на spark streaming это довольно специфичное решение
Ну, да. Как и флинк заводить под это дело.
источник

P

Pavel in Data Engineers
Anton Zadorozhniy
кмк такие логистические компоненты надо делать максимально независимыми, чтобы какой-нибудь апгрейд или аутадж МРР базы не каскадировался сразу на кучу процессов
Тоже верно, плюс максимально простыми
источник

AZ

Anton Zadorozhniy in Data Engineers
Андрей Романов
вот явный пример
а вы пользуетесь этим движком? как он работает когда схема у топика меняется, он алертит или сам вьюху пересоздает?
источник

AZ

Anton Zadorozhniy in Data Engineers
чот я вообще не понял куда ему регистр схем подать
источник

АР

Андрей Романов... in Data Engineers
Anton Zadorozhniy
а вы пользуетесь этим движком? как он работает когда схема у топика меняется, он алертит или сам вьюху пересоздает?
если честно, я пользовался им достаточно давно

скорее всего он упадёт при попытке получения сообщений, но точно сказать не могу
источник

АР

Андрей Романов... in Data Engineers
Anton Zadorozhniy
чот я вообще не понял куда ему регистр схем подать
для авро в доках есть такой параметр в регистри

https://clickhouse.tech/docs/ru/interfaces/formats/#data-format-avro-confluent
источник

АР

Андрей Романов... in Data Engineers
в официальной группе можно побольше инфы получить

https://t.me/clickhouse_ru
источник

A

Aleksandr in Data Engineers
всем привет. столкнулся с проблемой, запускаю спарк джобу, периодически (не всегда!) ловлю ошибку
ERROR [main] glue.ProcessLauncher (Logging.scala:logError(70)): Exception in User Class: java.lang.StackOverflowError
org.apache.spark.sql.catalyst.expressions.Canonicalize$.org$apache$spark$sql$catalyst$expressions$Canonicalize$$gatherCommutative(Canonicalize.scala:52)
org.apache.spark.sql.catalyst.expressions.Canonicalize$$anonfun$org$apache$spark$sql$catalyst$expressions$Canonicalize$$gatherCommutative$1.apply(Canonicalize.scala:53)
org.apache.spark.sql.catalyst.expressions.Canonicalize$$anonfun$org$apache$spark$sql$catalyst$expressions$Canonicalize$$gatherCommutative$1.apply(Canonicalize.scala:53)
scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
scala.collection.immutable.List.foreach(List.scala:392)
scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:241)
scala.collection.immutable.List.flatMap(List.scala:355)

действие происходит в aws-е (glue). подскажите в какую сторону копать
источник

AS

Andrey Smirnov in Data Engineers
видимо где-то зацикливается рекурсивный разбор запроса
источник

A

Aleksandr in Data Engineers
а как такое теоретически может быть?
источник