R
Size: a a a
R
R
IK
R
GP
DataFrame
-> Dataset
делать подвыборку полей?case class TransactionTest(id: Long, time: String, value: String)
val transactionDS = spark.sparkContext.parallelize(Seq(
(1,"t1","v1","av1"),
(2,"t1","v1","av2"),
(3,"t3","v1","av1")
)).toDF("id","time","value","another_value").as[TransactionTest]
transactionDS.showДает:
+---+----+-----+-------------+Хотелось бы чтобы .as каст отсекал ненужные поля - как это правильно сделать?
| id|time|value|another_value|
+---+----+-----+-------------+
| 1| t1| v1| av1|
| 2| t1| v1| av2|
| 3| t3| v1| av1|
+---+----+-----+-------------+
AB
DZ
OП
GG
GG
AB
DZ
ВН
DZ
DZ
A
A
GG
A
A