Ну, ты же сам пишешь: шанс что данные протекут и эпизодически будут протекать - действительно немал, но как по мне - это малая плата Как протечка данных между пользователями может быть малой платой чего-то? А если данные критичные? Ты ж потом концов не найдёшь?!
Поддержка базы - да проще, она одна А запросов сотни, и в каждом будет по несколько лишних условий
Вот только опять же - запросы проще проверить и протестировать. Зато нет проблем с дублированием и целостностью данных А по лишним условиям я писал выше - кастомные скоупы и т.д и тп
шанс что данные протекут и эпизодически будут протекать - действительно немал, но как по мне - это малая плата по сравнению с геморроем в виде отдельных баз
Кстати, ни у кого не складывается ощущения, что современные JS фреймворки неявно намекают, что лучше бы тебе, братишка, перейти на ноду на бэкенде, и жить будет проще?
если логику песочниц считать единственно правильной, то давайте запретим в контроллере писать where user_id=[active_customer] и объявим что это безответственный подход, чего уж
Плюс у нас данные синхронизируются между клиентскими приложениями и нашим сервисом. Т.е. у каждого клиента на его стороне есть своя БД. Как без геморроя делать дамп на сервере, чтобы его можно было раскатать на клиенте?
Единственные места соприкосновения данных между клиентами - это сквозные отчёты для аналитики, но их не так много, и вот как раз там данные не особо критичные
Плюс у нас данные синхронизируются между клиентскими приложениями и нашим сервисом. Т.е. у каждого клиента на его стороне есть своя БД. Как без геморроя делать дамп на сервере, чтобы его можно было раскатать на клиенте?
в вашем случае все отлично получилось. рад за вас, без сарказма. у меня есть все-таки устойчивое предпочтение такое реализовывать когда проект взлетает и начинает зарабатывать, вторая версия, так сказать
Вот сейчас, к слову, делаем вторую версию другого сервиса, не такого масштабного, но говнеца с запросами там съел порядком, и теперь (через 2 года работы) решил разделить его "пофилиально"
вообщем-то взлет kubernetes и девопс во многом обусловлен операционным геморроем поддержки такой системы, я так склонен считать - грубо говоря автоматизация выноса наглого клиента на отдельную машину, работа с миграциями и вот это все
допустим жизненная ситуация - девелопер наливает кривую миграцию, которая отработала на 80% баз, и надо в полуручном режиме выцеплять остатки и чинить их данные. вы сталкивались с таким?
говнеца с sql запросами можно поесть если вся работа идет через чистый sql, мне кажется в ларавел не так это болезненно, правильно выше упоминали скоупы
Миграция проходит примерно в таком формате: лочится клиент, делается дамп, накатывается миграция, все ок -> разлочиваем, не ок -> восстанавливаем из дампа на предыдущую версию и кричим об этом, далее следующий клиент