А никто не пробовал в PyCharm'e запустить spark structured streaming и вычитывать данные из кафки?
Пишет pyspark.sql.utils.AnalysisException: Failed to find data source: kafka. Please deploy the application as per the deployment section of "Structured Streaming + Kafka Integration Guide".
Видимо как-то нужно указать зависимость: --packages org.apache.spark:spark-sql-kafka-0-10_2.12:3.1.1
но как это сделать в пайчарме непонятно и мануала не нашёл (
А никто не пробовал в PyCharm'e запустить spark structured streaming и вычитывать данные из кафки?
Пишет pyspark.sql.utils.AnalysisException: Failed to find data source: kafka. Please deploy the application as per the deployment section of "Structured Streaming + Kafka Integration Guide".
Видимо как-то нужно указать зависимость: --packages org.apache.spark:spark-sql-kafka-0-10_2.12:3.1.1
но как это сделать в пайчарме непонятно и мануала не нашёл (
А никто не пробовал в PyCharm'e запустить spark structured streaming и вычитывать данные из кафки?
Пишет pyspark.sql.utils.AnalysisException: Failed to find data source: kafka. Please deploy the application as per the deployment section of "Structured Streaming + Kafka Integration Guide".
Видимо как-то нужно указать зависимость: --packages org.apache.spark:spark-sql-kafka-0-10_2.12:3.1.1
но как это сделать в пайчарме непонятно и мануала не нашёл (
попробуй положить локально жарник и в укажи путь в конф
Я где-то слышал про ребят которые как-то парсят дашборды табло, и прямо из них достают используемые колоник, таблицы и простравают целое дерево, но найти ничего на эту тему не могу (
Я где-то слышал про ребят которые как-то парсят дашборды табло, и прямо из них достают используемые колоник, таблицы и простравают целое дерево, но найти ничего на эту тему не могу (