Size: a a a

2019 April 08

KS

Kostya Shchetkin in Moscow Spark
Simon Osipov
.save() должен быть?
Да
источник

KS

Kostya Shchetkin in Moscow Spark
(
               df.write.format("jdbc")
               .option("useUnicode", "true")
               .option("characterEncoding", "UTF-8")
               .options(url=mssql_connection,
                        dbtable=mssql_table,
                        driver=driver
                        ).mode('append').save()
)
источник

KS

Kostya Shchetkin in Moscow Spark
Так пайспарком в mssql пишу
источник

PK

Pavel Klemenkov in Moscow Spark
Simon Osipov
.save() должен быть?
save - это action, который триггерит вычисление дага. Всё остальное - трансформации, которые только модифицируют граф вычислений
источник

SO

Simon Osipov in Moscow Spark
Pavel Klemenkov
save - это action, который триггерит вычисление дага. Всё остальное - трансформации, которые только модифицируют граф вычислений
А разве write это не action?
источник

PK

Pavel Klemenkov in Moscow Spark
write - это singleton, который позволяет писать в синк
источник

PK

Pavel Klemenkov in Moscow Spark
Не action
источник

SO

Simon Osipov in Moscow Spark
Pavel Klemenkov
write - это singleton, который позволяет писать в синк
Немного сложно для понимания, можно пояснить чуть более простым языком
?
источник

PK

Pavel Klemenkov in Moscow Spark
write - это просто атрибут спарк сессии, который позволяет писать датафрейм во внешний сторадж. Единственный action, который запускает запись - это save
источник

SO

Simon Osipov in Moscow Spark
Спасибо за пояснение!
источник
2019 April 10

N

Nikolay in Moscow Spark
Вопрос про тунгстем и columar format.в какой момент моего чтения csv файла с помощью dataframe /dataset появляется это колоночное храние данных
источник

N

Nikolay in Moscow Spark
Вопрос возник из того, что unsafeRow не хранит же поколоночно. Оно линеаризует просто
источник

N

Nikolay in Moscow Spark
Я то думаю, что если нет операций , которые сильно потребляют память ( sort, join, agg) то никакого колумнара и не будет.
источник

DU

Dmitry Ursegov in Moscow Spark
в Спарке сейчас колоночное представление используется только при чтении из паркета и для вызова pandas udf
источник

ЕГ

Евгений Глотов... in Moscow Spark
А как же орк, допилили же
источник

AS

Andrey Smirnov in Moscow Spark
Dmitry Ursegov
в Спарке сейчас колоночное представление используется только при чтении из паркета и для вызова pandas udf
а orc?
источник

DU

Dmitry Ursegov in Moscow Spark
а, ну может
источник

ЕГ

Евгений Глотов... in Moscow Spark
Мне почему-то кажется, что селект трёх колонок из ста из csv таки создаст колоночное представление
источник

DU

Dmitry Ursegov in Moscow Spark
вряд ли, больше похоже , что просто column pruning сработает
источник

AS

Andrey Smirnov in Moscow Spark
Евгений Глотов
Мне почему-то кажется, что селект трёх колонок из ста из csv таки создаст колоночное представление
интересно как, чтение все равно последовательно будет
источник