СХ
Size: a a a
СХ
СХ
А♻
DZ
IV
А♻
А♻
DZ
TT
TT
РА
А♻
A
P
OП
А♻
R
DataFrame
-> Dataset
делать подвыборку полей?case class TransactionTest(id: Long, time: String, value: String)
val transactionDS = spark.sparkContext.parallelize(Seq(
(1,"t1","v1","av1"),
(2,"t1","v1","av2"),
(3,"t3","v1","av1")
)).toDF("id","time","value","another_value").as[TransactionTest]
transactionDS.showДает:
+---+----+-----+-------------+Хотелось бы чтобы .as каст отсекал ненужные поля - как это правильно сделать?
| id|time|value|another_value|
+---+----+-----+-------------+
| 1| t1| v1| av1|
| 2| t1| v1| av2|
| 3| t3| v1| av1|
+---+----+-----+-------------+
AP
DataFrame
-> Dataset
делать подвыборку полей?case class TransactionTest(id: Long, time: String, value: String)
val transactionDS = spark.sparkContext.parallelize(Seq(
(1,"t1","v1","av1"),
(2,"t1","v1","av2"),
(3,"t3","v1","av1")
)).toDF("id","time","value","another_value").as[TransactionTest]
transactionDS.showДает:
+---+----+-----+-------------+Хотелось бы чтобы .as каст отсекал ненужные поля - как это правильно сделать?
| id|time|value|another_value|
+---+----+-----+-------------+
| 1| t1| v1| av1|
| 2| t1| v1| av2|
| 3| t3| v1| av1|
+---+----+-----+-------------+
A
val encoder =Encoders.product[TransactionTest]
......
toDF("id","time","value","another_value").as(encoder)
R
val encoder =Encoders.product[TransactionTest]
......
toDF("id","time","value","another_value").as(encoder)