AZ
Size: a a a
AZ
RI
spark.readставлю фильтр по ключу. jdbc клиенты отрабатывают очень быстро(пару секунд максимум), а вот спарк не хочет это делать быстро, ранится минутами. Кто-нибудь сталкивался с этим?
.format("org.apache.phoenix.spark")
.options(Map("table" -> tableName, "zkUrl" -> phoenixHost))
.load.show()
RI
DZ
DZ
RI
DZ
DZ
DZ
C
RI
a.join(b, a.columns.intersect(b.columns))
? Чтобы точно объединять по пересекающимся?RI
АП
a.join(b, a.columns.intersect(b.columns))
? Чтобы точно объединять по пересекающимся?RI
АП
АП
RI
Seq(columns)
ручным способом?АП
RI