Size: a a a

2020 January 23

RI

Rustam Iksanov in Data Engineers
Через hbase shell можно попробовать сделать фильтр по ключу и посмотреть, там все символы будут видны
источник

N

Nikita Blagodarnyy in Data Engineers
источник

N

Nikita Blagodarnyy in Data Engineers
Там только 2 таймстампа. Сам феникс вовзращает 1 строку. А в итоге в target ClickHouse откуда-то 3 нарисовалось.
источник

RI

Rustam Iksanov in Data Engineers
Nikita Blagodarnyy
Там только 2 таймстампа. Сам феникс вовзращает 1 строку. А в итоге в target ClickHouse откуда-то 3 нарисовалось.
А точно проблема в фениксе?
источник

N

Nikita Blagodarnyy in Data Engineers
Нет. Но зная всю перелсть феникса, подумал на него в первую очередь.
источник

SS

Sergey Sheremeta in Data Engineers
Не обижай феникс, это все ваш кликхаус чудит
источник

λ

λoλdog in Data Engineers
Nikita Blagodarnyy
Соль генерирует феникс. SALT_BUCKETS = 30
c /*+ NO_INDEX */ запрос также работает?
источник

N

Nikita Blagodarnyy in Data Engineers
да, все тож самое
источник

ДА

Денис Ананьев in Data Engineers
Nikita Blagodarnyy
А ключ подвозят из процессинга, «guid» сущности + числовой тип события + датавремя события
Мне как-то встречалось дублирование записей, если в запросе была указана только часть составного ключа
источник

ДА

Денис Ананьев in Data Engineers
Причем чем меньшая часть тем больше дублей
источник

N

Nikita Blagodarnyy in Data Engineers
у меня в запросе вообще нет ключевых элементов. я вычитываю по неключевому предикату.
источник

ДА

Денис Ананьев in Data Engineers
тогда были дубли, да
источник

AZ

Anton Zadorozhniy in Data Engineers
точно phoenix -> clickhouse работает через jdbc? если на финиксовые таблицы смотреть через hbase api/shell то для версии ячеек видны..
источник

N

Nikita Blagodarnyy in Data Engineers
Anton Zadorozhniy
точно phoenix -> clickhouse работает через jdbc? если на финиксовые таблицы смотреть через hbase api/shell то для версии ячеек видны..
Не напрямую. Переливает spring batch
источник
2020 January 24

DM

David Manukian in Data Engineers
Ребята, хочу как то выкачать данные из clickhous'a в hdfs, пришел к подходу просто вытянуть спарком и выложить в какой-нибудь путь, посерчил и нашел коннекторы (https://github.com/VaBezruchko/spark-clickhouse-connector), но к сожалению коннектор работает со спарком выше 2.3, (у нас 2.1), готов рассмотреть другие варианты, я не пробовал напрямую с clickhousejdbc драйвером вытянуть, не уверен что спарком 2.1 получится
источник

RI

Rustam Iksanov in Data Engineers
David Manukian
Ребята, хочу как то выкачать данные из clickhous'a в hdfs, пришел к подходу просто вытянуть спарком и выложить в какой-нибудь путь, посерчил и нашел коннекторы (https://github.com/VaBezruchko/spark-clickhouse-connector), но к сожалению коннектор работает со спарком выше 2.3, (у нас 2.1), готов рассмотреть другие варианты, я не пробовал напрямую с clickhousejdbc драйвером вытянуть, не уверен что спарком 2.1 получится
спарк поддерживает jdbc драйвера, смотри работу спарком через jdbc
источник

S

Stanislav in Data Engineers
обычный ждбц драйвер
источник

S

Stanislav in Data Engineers
ru.yandex.clickhouse:clickhouse-jdbc:
источник

RI

Rustam Iksanov in Data Engineers
можно воспользоваться sqoop'ом
источник

DM

David Manukian in Data Engineers
проблема со спарком 2.1 при работе с clickhouse jdbc drivera в этом https://github.com/ClickHouse/clickhouse-jdbc/issues/121
источник