Size: a a a

Чат конференции HighLoad++

2019 November 10

N

Nikolay in Чат конференции HighLoad++
Vyacheslav Olkhovchenkov
ровно то же самое что и iops на диске.
в чем собственно сомнение и/или недоумениие?
в продакшен память с нулевой латенси пока не завозили и даже не обещают
ну тогда надо править статью в википедии. https://en.wikipedia.org/wiki/IOPS . Тут нет примеров для случая, когда бы доступ к памяти считался как IOPS. Надо тогда вводить и IOPS для процессорых кешей. Пока в википедии такое тоже за iops не признается.
источник

VO

Vyacheslav Olkhovchenkov in Чат конференции HighLoad++
да мне вообще-то глубоко пофиг что там в какой-то вики-пики понаписали, на реальность это не влияет
источник

VO

Vyacheslav Olkhovchenkov in Чат конференции HighLoad++
для процессорных кешей -- да, можно. имеет смысл. а что смущает? ментальная ограниченность?
источник

N

Nikolay in Чат конференции HighLoad++
Phil Delgyado
Но, кстати, про проблемы в реализации современных СУБД, рассчитанных на архитектуру производительных SSD я бы доклад с удовольствием послушал.
Желательно про разные кейсы.
Пока все-таки архитектура СУБД в основном опирается на шпиндельные диски (исторически).
пишет один процесс и чтобы бы обеспечить Durability он вынужден ждать завершения записи.
источник

N

Nikolay in Чат конференции HighLoad++
Phil Delgyado
Т.е. понятно, что современные СУБД все на этой идеологии - и для шпиндельных дисков это было круто. Но для SSD уже можно данные менять и сразу в нескольких местах, одновременно. Нет необходимости экономить на seek.
тут я согласен. у всех современные СУБД условный log writer написан под наличие жестких дисков. Он именно для этого и батчинг делает, чтобы писать большим куском с максимальной скоростью
источник

AE

Alexey Er in Чат конференции HighLoad++
Alexey Er
Для целостности (ACID) принципиально иметь именно один последовательный поток данных. Иначе рассинхронизация и каррапт.
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Nikolay
пишет один процесс и чтобы бы обеспечить Durability он вынужден ждать завершения записи.
А зачем? Я иногда на уровне логики могу гарантировать независимость записей друг от друга. Понятно, что это не классический SQL.
источник

N

Nikolay in Чат конференции HighLoad++
Зачем один пишет или зачем ждать завершения записи ?
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Зачем один
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Nikolay
пишет один процесс и чтобы бы обеспечить Durability он вынужден ждать завершения записи.
Но вообще есть ощущение, что для полноценного использования возможностей nvme нужно опускаться ниже уровня OS и работать уже напрямую с железом. А это пока дороговато для стартапов (и не интересно для Oracle etc...)
источник

VO

Vyacheslav Olkhovchenkov in Чат конференции HighLoad++
... напрямую с банками флэша
источник

p

pragus in Чат конференции HighLoad++
Vyacheslav Olkhovchenkov
не вижу никаких причин делать на ssd принципиально иначе чем на шпиндильных дисках. собственно говоря ssd диск вполен можно считать как raid0 из нескольких шпиндельных дисков (для обычных консьюмерских -- из восьми, с seek 0.1 ms вместо 14, но примерно таким же трансфером (140МБ/с))
у постгреса соответсвующие соотношения тупо в конфиге прописываются, для оптимизатора запросов.
А если речь не про консьюмерские?
источник

VO

Vyacheslav Olkhovchenkov in Чат конференции HighLoad++
к сожалению энтерппрайз серию я не тестировал и тестов не видел
источник

VO

Vyacheslav Olkhovchenkov in Чат конференции HighLoad++
ну т.е. данных у меня нет
источник

VO

Vyacheslav Olkhovchenkov in Чат конференции HighLoad++
nvme кажется можно просто рассматривать как x8 а не x32
источник

p

pragus in Чат конференции HighLoad++
Vyacheslav Olkhovchenkov
к сожалению энтерппрайз серию я не тестировал и тестов не видел
А эти цифры - они с io polling?
источник

VO

Vyacheslav Olkhovchenkov in Чат конференции HighLoad++
да похуй же
источник

p

pragus in Чат конференции HighLoad++
Vyacheslav Olkhovchenkov
да похуй же
С чего бы вдруг?
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Но вот не даёт pg (oracle etc) роста в производительности в сто раз при замене sata на SSD. Так что не только в iops дело.
источник

PD

Phil Delgyado in Чат конференции HighLoad++
Кстати, 1mln iops по 4k - это 36 Gbit, такой объем и передать на сервер не просто )
источник