Как можно сделать вложенные схемы полей lowercase dataframe в spark sql? Пробовал withColumn, но он меняет только верхнеуровневую структуру полей, например у меня есть сложная структура (nested) где скажем поле это целый Array (ArrayType) структур (Struct) в котором два-три поля, эти поля все с большой буквы, мне же нужно сделать их все с маленькой?
Как можно сделать вложенные схемы полей lowercase dataframe в spark sql? Пробовал withColumn, но он меняет только верхнеуровневую структуру полей, например у меня есть сложная структура (nested) где скажем поле это целый Array (ArrayType) структур (Struct) в котором два-три поля, эти поля все с большой буквы, мне же нужно сделать их все с маленькой?
1) spark.read.json(df.toJson.map(_.toLowerCase)) 2) через struct из o.a.s.sql.functions 3) через .cast(“””ddl here”””)
Как можно сделать вложенные схемы полей lowercase dataframe в spark sql? Пробовал withColumn, но он меняет только верхнеуровневую структуру полей, например у меня есть сложная структура (nested) где скажем поле это целый Array (ArrayType) структур (Struct) в котором два-три поля, эти поля все с большой буквы, мне же нужно сделать их все с маленькой?
@tenKe 1)у меня ORC файлы, наврядли такое подойдет. 2) не совсем понял. 3) кастить каждое поле вы имеете виду? Я не могу скастить каждое поле так как таблиц очень много и полей тоже, будет большущая лапша
@tenKe 1)у меня ORC файлы, наврядли такое подойдет. 2) не совсем понял. 3) кастить каждое поле вы имеете виду? Я не могу скастить каждое поле так как таблиц очень много и полей тоже, будет большущая лапша
1) ну ты читаешь свой orc и дальше делаешь как я написал. 2) Сначала раскладываешь df на плоские колонки, потом переименовываешь их и потом собираешь обратно в nested 3) напиши функцию. df.schema возвращает схему с описанием всех полей и генерируй ddl автоматически из схемы