Size: a a a

pgsql – PostgreSQL

2020 August 09

AV

A V in pgsql – PostgreSQL
Аггей Лоскутников
UPDATE
   option
SET
   organization = device.organization
FROM
   device
WHERE
   option.device = device.primarykey
спасибо!!!
источник

AV

A V in pgsql – PostgreSQL
Аггей Лоскутников
Ну не аналогично в части проставления null возможно
те ? тестирую - работает норм
источник

SB

Sergey Batsura in pgsql – PostgreSQL
Подскажите плиз 20 миллионов записей ежедневно в течение пяти лет  в postgresql реально класть и искать по индексам? По килобайту одна запись. Это 6 миллиардов записей в год. 30 за пять лет. Постгрес потянет? С архивной схемой или можно без нее?
источник

m

maxp.dev in pgsql – PostgreSQL
Sergey Batsura
Подскажите плиз 20 миллионов записей ежедневно в течение пяти лет  в postgresql реально класть и искать по индексам? По килобайту одна запись. Это 6 миллиардов записей в год. 30 за пять лет. Постгрес потянет? С архивной схемой или можно без нее?
беглый гуглеж дает что-то такое

In 2008, Yahoo claimed to have if not the largest then, one of the largest databases based on a heavily modified PostgreSQL data base engine.

The size they reported was a 2 PB (Petabytes) database and processing 24 billion events per day. This was data mentioned by Waqar Hasan, then VP of Engineering at Yahoo's data group.
источник

m

maxp.dev in pgsql – PostgreSQL
или вот так наверно более интересней будет
https://medium.com/@gajus/lessons-learned-scaling-postgresql-database-to-1-2bn-records-month-edc5449b3067
источник

YS

Yaroslav Schekin in pgsql – PostgreSQL
Sergey Batsura
Подскажите плиз 20 миллионов записей ежедневно в течение пяти лет  в postgresql реально класть и искать по индексам? По килобайту одна запись. Это 6 миллиардов записей в год. 30 за пять лет. Постгрес потянет? С архивной схемой или можно без нее?
А почему нет? Это же, грубо, где-то 40 терабайт?
Только в одну таблицу это не "влезет", придётся партиционировать.
А в остальном — вопрос "железа" и запросов, конечно.
источник

RS

Reuven Starodubski in pgsql – PostgreSQL
Yaroslav Schekin
А почему нет? Это же, грубо, где-то 40 терабайт?
Только в одну таблицу это не "влезет", придётся партиционировать.
А в остальном — вопрос "железа" и запросов, конечно.
https://www.2ndquadrant.com/en/blog/postgresql-maximum-table-size/ Походу это до 9.6 могло не влезть
источник

SB

Sergey Batsura in pgsql – PostgreSQL
всем спасибо, получается особых противопоказаний нет. мы так же прикидывали 40 тб. Идеальный вариант наверное по году партиционировать, что бы потом старые партиции удалят ь. А версия pg  11.5 можно и 12 поставить если будет нужно
источник

YS

Yaroslav Schekin in pgsql – PostgreSQL
Там написано ровно то же самое, что я и написал.
Лимит всё тот же ( https://www.postgresql.org/docs/current/limits.html ), с не default BLCKSZ PostgreSQL собирает примерно... никто, партиционировать придётся.
источник

A

Alexander in pgsql – PostgreSQL
maxp.dev
беглый гуглеж дает что-то такое

In 2008, Yahoo claimed to have if not the largest then, one of the largest databases based on a heavily modified PostgreSQL data base engine.

The size they reported was a 2 PB (Petabytes) database and processing 24 billion events per day. This was data mentioned by Waqar Hasan, then VP of Engineering at Yahoo's data group.
Это явно не на одном сервере, а нехило пошардировано, а также специально по соответствующие взоникающие ограничения написан софт.
источник

m

maxp.dev in pgsql – PostgreSQL
на один сервер я бы вообще не стал столько данных складывать, тем более они исторические
источник

YS

Yaroslav Schekin in pgsql – PostgreSQL
Sergey Batsura
всем спасибо, получается особых противопоказаний нет. мы так же прикидывали 40 тб. Идеальный вариант наверное по году партиционировать, что бы потом старые партиции удалят ь. А версия pg  11.5 можно и 12 поставить если будет нужно
Для партиционирования — чем новее версия, тем лучше.
Кстати, у партиционирования хватает ограничений, которые могут помешать его использованию — Вы проверьте, что для этих данных подойдёт.
источник

SZ

Sergey Zhuravlev in pgsql – PostgreSQL
точно ))))
источник

YS

Yaroslav Schekin in pgsql – PostgreSQL
maxp.dev
на один сервер я бы вообще не стал столько данных складывать, тем более они исторические
Хмм... а почему?
источник

SZ

Sergey Zhuravlev in pgsql – PostgreSQL
Reuven Starodubski
Всем привет. Скажите, есть возможность ускорить postgres startup из рекавери? А то есть 3 тера вал логов, и постгрес их медленно проигрывает
попробуйте  pg_prefaulter — проблема, что wal читает только один процесс — полезно для реплик и для загрузки когда много wal-ов

pg_prefaulter  https://github.com/joyent/pg_prefaulter -- может помогать для борьбы с лагом репликации -- утилита на go -- читает wal с помощью pg_xlogdump и разогреват кеш фс для файлов, которые потребуются при применении wal -- делает это многопоточно вроде работает с 9.6 https://www.pgcon.org/2018/schedule/attachments/485_pg_prefaulter.pdf
источник

m

maxp.dev in pgsql – PostgreSQL
Yaroslav Schekin
Хмм... а почему?
как минимум, чтобы не пробовать возмоные грабли на себе,
к тому же сделать  себе пространство для маневра под изменеие схемы/нагрузки/других условий
источник

m

maxp.dev in pgsql – PostgreSQL
таймскейл данные к тому же имеют особенности и их как правило можно обрабатывать параллельно
источник

RS

Reuven Starodubski in pgsql – PostgreSQL
Sergey Zhuravlev
попробуйте  pg_prefaulter — проблема, что wal читает только один процесс — полезно для реплик и для загрузки когда много wal-ов

pg_prefaulter  https://github.com/joyent/pg_prefaulter -- может помогать для борьбы с лагом репликации -- утилита на go -- читает wal с помощью pg_xlogdump и разогреват кеш фс для файлов, которые потребуются при применении wal -- делает это многопоточно вроде работает с 9.6 https://www.pgcon.org/2018/schedule/attachments/485_pg_prefaulter.pdf
если я правильно понял, то это классная тема когда уже реплика поднялась и подключилась к мастеру, тогда будет preload в cache OS . а у меня еще на этапе старта оно медленно поднимается..
источник

RS

Reuven Starodubski in pgsql – PostgreSQL
Sergey Zhuravlev
попробуйте  pg_prefaulter — проблема, что wal читает только один процесс — полезно для реплик и для загрузки когда много wal-ов

pg_prefaulter  https://github.com/joyent/pg_prefaulter -- может помогать для борьбы с лагом репликации -- утилита на go -- читает wal с помощью pg_xlogdump и разогреват кеш фс для файлов, которые потребуются при применении wal -- делает это многопоточно вроде работает с 9.6 https://www.pgcon.org/2018/schedule/attachments/485_pg_prefaulter.pdf
спасибо, так как когда поднимется то нужно будет уже ускорить валы с мастера
источник

YS

Yaroslav Schekin in pgsql – PostgreSQL
maxp.dev
как минимум, чтобы не пробовать возмоные грабли на себе,
к тому же сделать  себе пространство для маневра под изменеие схемы/нагрузки/других условий
Я просто не понял, о каких "граблях" речь.
Тем более что у альтернативы (несколько серверов) "грабли" точно есть — ниже надёжность; возможно, выше TCO; вполне вероятно, придётся либо писать приложение(я) специально под эту архитектуру и заниматься настройками, либо получить и низкую производительность; возможны проблемы с консистентностью.
источник