Size: a a a

ClickHouse не тормозит

2019 November 29

DT

Dmitry Titov in ClickHouse не тормозит
Damien
Добрый день!
Помогите пожалуйста устранить ошибку:
[ 2023 ] {d18544fc-d088-426e-8667-561be5f7e04d} <Error> executeQuery: Code: 368, e.displayText() = DB::Exception: Bad cast from type DB::ColumnVector<unsigned long> to DB::ColumnVector<long> (version 19.7.3.9 (official build)) (from [::ffff:10.0.0.5]:49630) (in query: INSERT INTO pp.logs_sends_local (push_id, site_id, created_at, subscribe_at, subscribe_day, user_id, device, push_type, country_id, service_id, sub_type) VALUES), Stack trace:
У тебя число случаем не превышает long?
источник

AT

Anton Teckatlipoka in ClickHouse не тормозит
Привет.
Хотим использовать движок CollapsingMergeTree для схлопывания и удаления старых данных. Однако при записи в ClickHouse неоткуда взять старое состояние записи.
Можно ли его взять из самого ClickHouse'а и какие подводные камни? Есть у кого подобный опыт?
Запись в кликхаус идет всегда в один поток. Кликхаус работает в 2 реплики без шардов. Вставку записей можно ограничить 1 репликой.
источник

YK

Yuri Kudryavtsev in ClickHouse не тормозит
как дропнуть таблицу ридонли ?
источник

A

Aleksandr baltazor in ClickHouse не тормозит
Добрый день. Подскажите пожалуйста такой момент, есть работающий кластер и переодически в еррор логе вижу такую ошибку:
DB::Exception: Data directory for table already containing data parts - probably it was unclean DROP table or manual intervention. You must either clear directory by hand or use ATTACH TABLE instead of CREATE TABLE if you need to use that parts.

Ее как то победить можно не переделывая таблицу(ы) или весь кластер? Спасибо.
источник

v

vladamir in ClickHouse не тормозит
Всем привет! Есть два зпроса в разные таблицы, примерно одинаковое количество данных обрабатывается, но скорость обработки разная:

Elapsed: 2.627 sec. Processed 937.85 thousand rows, 24.38 MB (356.95 thousand rows/s., 9.28 MB/s.)
Elapsed: 0.016 sec. Processed 761.86 thousand rows, 13.71 MB (48.05 million rows/s., 864.85 MB/s.)


Скажите пожалуйста, в общих чертах, от чего это может зависеть и как можно узнать точно причину? Только через trace-level в логах?
источник

S

Se in ClickHouse не тормозит
Подскажите, а где искать записи, которые заинсертились, но не смержились в кликхаусе?
источник

SV

Stanislav Vlasov in ClickHouse не тормозит
Вообще-то, если на обычном мержтри, то они доступны сразу
источник

S

Se in ClickHouse не тормозит
ну вот чет фейл какойто случился. при переезде на новый зукипер,
т.е. как было: остановлены кликхаусы. скопирован зукипер с помощью zkcopy , в конфигах поствлен новый зукипер. запущен кликхаус
судя по мониторингу инсерты были, а мержей не было.
починилось переименованием таблиц , созданием новых такихже и заливкой данных со старых таблиц
Но сейчас данных за ночь в кликхаусе не видно.
источник

JS

J0hn Smitt in ClickHouse не тормозит
Привет всем, такая проблема, закончилось место на диске, кх встал в ридонли. как его вывести из этого состояния?
источник

MK

Matwey Kornilov in ClickHouse не тормозит
Господа,

Я сделал ninja test и у меня test_in_join_subqueries_preprocessor ушел в бесконечный сон. Так и должно быть?
источник

MK

Matwey Kornilov in ClickHouse не тормозит
Он процессор не есть, из теста не выходит, висит себе в списке процессов.
источник

VP

Vladimir Popov in ClickHouse не тормозит
вопрос такого плана - создал таблицу. На нее повесил мат вью. При этом если я пишу в таблицу данные через http то почему то приходит ошибка вставки в мат вью. Это фича или нет?
источник

VP

Vladimir Popov in ClickHouse не тормозит
server version 19.1.9 revision 54413
источник

M

Mishanya in ClickHouse не тормозит
Гайз, такой вопрос
У меня есть таблица с кафка энжином, к нему присоединяется MV
Когда я делаю детач этой вьюхи и пытаюсь сделать аттач, то пишет, что Cannot open file /var/lib/clickhouse/metadata/default/my_mv.sql,  errno: 2, strerror: No such file or directory

В чем проблемес может быть ? Версия 19 15 2 2
источник

M

Mishanya in ClickHouse не тормозит
Anton Teckatlipoka
Привет.
Хотим использовать движок CollapsingMergeTree для схлопывания и удаления старых данных. Однако при записи в ClickHouse неоткуда взять старое состояние записи.
Можно ли его взять из самого ClickHouse'а и какие подводные камни? Есть у кого подобный опыт?
Запись в кликхаус идет всегда в один поток. Кликхаус работает в 2 реплики без шардов. Вставку записей можно ограничить 1 репликой.
а ReplcaingMergeTree с ключом для версий не подойдет? Например, время
источник

YK

Yuri Kudryavtsev in ClickHouse не тормозит
парни как в конфиге посетить
    <disable_internal_dns_cache>1</disable_internal_dns_cache>
   <prefer_localhost_replica>0</prefer_localhost_replica>
   <max_parallel_replicas>3</max_parallel_replicas>
источник

YK

Yuri Kudryavtsev in ClickHouse не тормозит
не срабатывает в config.xml
источник

A

Alexander in ClickHouse не тормозит
А что происходит - если делать freeze на текущую активную партицию? это же хард-линк - в shadow будут данные тоже меняться?
источник

AG

Artemeey Gavryushin in ClickHouse не тормозит
Как в ClickHouse можно отключить кеш?
источник

YK

Yuri Kudryavtsev in ClickHouse не тормозит
    <disable_internal_dns_cache>1</disable_internal_dns_cache>
источник