Size: a a a

2021 October 08

ЕГ

Евгений Глотов... in Moscow Spark
А хоть какой-то ключ есть?
источник

ЕГ

Евгений Глотов... in Moscow Spark
Частичный
источник

Е

Евгений in Moscow Spark
нужен ближайший
вообще задача свести 2 потока данных в 2 таблицах в одну со всеми полями обеих
похоже юнион + лаг, но колонки в них разные, и надо будет сначала докидывать пустых колонок
я придумал может сделать промежуточную таблицу union(ts1, ts2).distinct(), потом с помощью lag привести к виду ts, previous_ts
и использовать ее при джойне, то есть будет джойн 3 таблиц
источник

Е

Евгений in Moscow Spark
ключ есть, джойн будет по ключу+ts
источник

ЕГ

Евгений Глотов... in Moscow Spark
Тогда проще по ключу поджойнить, а потом фильтрами отобрать
источник

ЕГ

Евгений Глотов... in Moscow Spark
Если хадуп большой)
источник

ЕГ

Евгений Глотов... in Moscow Spark
И ноды ваши быстры)
источник

ЕГ

Евгений Глотов... in Moscow Spark
Типа джойним все тс на все тс, потом группируем по ключу key+ts1, и ищем запись с минимальным ts2 - ts1
источник

ЕГ

Евгений Глотов... in Moscow Spark
Либо вместо юнион + лаг нужен юнион + first(ts if <ts из второго набора>else null) order by ts rows between current row and unbounded following
источник

ЕГ

Евгений Глотов... in Moscow Spark
Это если ближайший с одной стороны😆
источник

ПБ

Повелитель Бури... in Moscow Spark
Друзья! Если у меня код в виде строки, можно его выполнить типа
Execute(var)
источник

GP

Grigory Pomadchin in Moscow Spark
привет! а какой код?
источник

GP

Grigory Pomadchin in Moscow Spark
это скала или жава?
так то можно любой код в виде строки распарсить и выполнить (собсна что компиляторы / интерпретаторы делают)
источник

N

Nikita Blagodarnyy in Moscow Spark
eval $MY_BASH_CODE
источник

ПБ

Повелитель Бури... in Moscow Spark
Pyspark

Var = "Df= df.join(t1.c1=t2.c1)"
Df=var
Df.show()
источник

GP

Grigory Pomadchin in Moscow Spark
Df=eval(var) полагаю; если это петон
источник

ЕГ

Евгений Глотов... in Moscow Spark
В пуфоне eval("code")
источник

GP

Grigory Pomadchin in Moscow Spark
дыа такой ниоч спарко вопрос
источник

ЕГ

Евгений Глотов... in Moscow Spark
Ещё раз хочу обратиться к сообществу с просьбой писать join(df2, ["vars", "to", "join"])
источник

ЕГ

Евгений Глотов... in Moscow Spark
А то потом ведь самим же мучиться выбирать нужные колонки, ладно в эскуэле без этого никак, но здесь, то смёрждится само и без всяких дублей колонок)
источник