Size: a a a

Data Science Kazakhstan (DS/ML kz)

2020 June 08

IS

Iska Shaikh in Data Science Kazakhstan (DS/ML kz)
имеются ли у тебя сохраненные ссылки на инструкцию
источник

RA

Renat Alimbekov in Data Science Kazakhstan (DS/ML kz)
Можно в кишки efficientdet глянуть
источник

RA

Renat Alimbekov in Data Science Kazakhstan (DS/ML kz)
Или mmdetection
источник

KA

Kamalkhan Artykbayev in Data Science Kazakhstan (DS/ML kz)
Rustem Burkhanov
Сегодня онлайн конференция по компьютерному зрению http://machinescansee.com/ начинается, регистрация бесплатна
Будет ли replay, не знаете?
источник

RB

Rustem Burkhanov in Data Science Kazakhstan (DS/ML kz)
Kamalkhan Artykbayev
Будет ли replay, не знаете?
Предыдущие конференции они выкладывали тут https://www.youtube.com/user/VisionLabsChannel/videos, так что думаю, да
источник

KA

Kamalkhan Artykbayev in Data Science Kazakhstan (DS/ML kz)
Rustem Burkhanov
Предыдущие конференции они выкладывали тут https://www.youtube.com/user/VisionLabsChannel/videos, так что думаю, да
Хорошо, Рахмет)
источник

AA

Aaa Aaa in Data Science Kazakhstan (DS/ML kz)
Всем привет у нас есть NLP data scientists нужна помощь) задача вытащить имена на казахском
источник

IS

Iska Shaikh in Data Science Kazakhstan (DS/ML kz)
Aaa Aaa
Всем привет у нас есть NLP data scientists нужна помощь) задача вытащить имена на казахском
только черной работой)
источник

A

Aspandiyar in Data Science Kazakhstan (DS/ML kz)
фW
источник

К

Кir in Data Science Kazakhstan (DS/ML kz)
есть вопрос скорее по data engeneering, есть датчики и к ним данные состоящие из двух частей: метадата и она не меняется и собственно данные датчиков, грубо говоря список float, как лучше организовать хранение таких данных? просто база в которой таблица с метадатой и для каждого датчика по id отделньо табличка с датой/временнем и показаниями или есть какой-то более правильный способ?
источник

TC

Tasty Cake in Data Science Kazakhstan (DS/ML kz)
Кir
есть вопрос скорее по data engeneering, есть датчики и к ним данные состоящие из двух частей: метадата и она не меняется и собственно данные датчиков, грубо говоря список float, как лучше организовать хранение таких данных? просто база в которой таблица с метадатой и для каждого датчика по id отделньо табличка с датой/временнем и показаниями или есть какой-то более правильный способ?
Сколько записей за день копится? У вас все в базу идёт сразу? Или сначала хранится как таймсериз в носиквеле?
источник

TC

Tasty Cake in Data Science Kazakhstan (DS/ML kz)
Кir
есть вопрос скорее по data engeneering, есть датчики и к ним данные состоящие из двух частей: метадата и она не меняется и собственно данные датчиков, грубо говоря список float, как лучше организовать хранение таких данных? просто база в которой таблица с метадатой и для каждого датчика по id отделньо табличка с датой/временнем и показаниями или есть какой-то более правильный способ?
Если ты хочешь сделать хранение в обычной БД, хочешь делать в 3НФ, то... отдельно метадату, сделай айдишник для счетчиков, и храни показания в таблице. Если за сутки у тебя данных много, то подумай о партицировании. Как партицировать будешь (день, мясяц, место установки и пр) - думай сам.
источник

К

Кir in Data Science Kazakhstan (DS/ML kz)
Tasty Cake
Сколько записей за день копится? У вас все в базу идёт сразу? Или сначала хранится как таймсериз в носиквеле?
пока не знаю, предположительно пока 100 датчиков и опросы пока не придумал какой интервал (нужно будет экспериментировать), но в дальнейшем будет расти
источник

К

Кir in Data Science Kazakhstan (DS/ML kz)
Tasty Cake
Если ты хочешь сделать хранение в обычной БД, хочешь делать в 3НФ, то... отдельно метадату, сделай айдишник для счетчиков, и храни показания в таблице. Если за сутки у тебя данных много, то подумай о партицировании. Как партицировать будешь (день, мясяц, место установки и пр) - думай сам.
спасибо!
источник

К

Кir in Data Science Kazakhstan (DS/ML kz)
Tasty Cake
Если ты хочешь сделать хранение в обычной БД, хочешь делать в 3НФ, то... отдельно метадату, сделай айдишник для счетчиков, и храни показания в таблице. Если за сутки у тебя данных много, то подумай о партицировании. Как партицировать будешь (день, мясяц, место установки и пр) - думай сам.
вообще сейчас мысль возникла, что можно будет сделать как Time Macine - последний день допустим самая большая частота, неделя - допустим раз в час, месяц - 4 раза в день и там уже можно так, как вариант
источник

К

Кir in Data Science Kazakhstan (DS/ML kz)
или допустим мин/макс/среднее/медиана
источник

N

Nurislam in Data Science Kazakhstan (DS/ML kz)
Kamalkhan Artykbayev
Будет ли replay, не знаете?
источник

TC

Tasty Cake in Data Science Kazakhstan (DS/ML kz)
Ну это тебе виднее. Просто такое не встречал в хранилищах данных. Можешь настроить, чтобы партицирование было ежечасным.
источник

К

Кir in Data Science Kazakhstan (DS/ML kz)
Tasty Cake
Ну это тебе виднее. Просто такое не встречал в хранилищах данных. Можешь настроить, чтобы партицирование было ежечасным.
угу, спасибо за наводку, теперь понятнее как можно оптимизировать
источник

KA

Kamalkhan Artykbayev in Data Science Kazakhstan (DS/ML kz)
👍🏼
источник