Size: a a a

Machine learning

2020 June 25

I

Ibp in Machine learning
нет сариму делал на всей, конечную модель в 6 неделе делал на начиная с сентября или октября 2015, а может и с декабря. С декабря наверное все же.
источник

I

Ibp in Machine learning
января всмысле
источник

I

Ibp in Machine learning
корче итоговая мождель была где то на 1, года
источник

I

Ibp in Machine learning
1,5
источник

АГ

Артём Глазунов... in Machine learning
Все равно, очень достойное качество получилось👍
источник

I

Ibp in Machine learning
наверное
источник

АГ

Артём Глазунов... in Machine learning
Ibp
нет сариму делал на всей, конечную модель в 6 неделе делал на начиная с сентября или октября 2015, а может и с декабря. С декабря наверное все же.
А в ариме по 2, 5 года сколько скорр вышел?
источник

I

Ibp in Machine learning
37
источник

АГ

Артём Глазунов... in Machine learning
И не пробовали ли учить на нескольких месяцах начала, а потом filter делать на всю
источник

АГ

Артём Глазунов... in Machine learning
Так очень быстро выходит
источник

АГ

Артём Глазунов... in Machine learning
Артём Глазунов
И не пробовали ли учить на нескольких месяцах начала, а потом filter делать на всю
Кроме последних, естественно
источник

I

Ibp in Machine learning
Артём Глазунов
И не пробовали ли учить на нескольких месяцах начала, а потом filter делать на всю
на самом деле это совсем не обязательно, ибо нужно найти не только самую точную модель по aic но чтобы она и быстро сходилась: а для этого она должна быть простая совсем, без высоких параметров. То есть я запускал подсчет параметров, а потом брал оттуда самые быстрые и самые низкие и пробовал. Там еще главное, правильно, дифференцирование сезонное сделать: на год. или 8766 часов, если точно Тогда остается только полтора-года и идеальные похожие на нормальные остатки, сейчас вспомнил, я ее не на 2,5 а на 1, 5 года тоже обучал
источник

АГ

Артём Глазунов... in Machine learning
Ibp
на самом деле это совсем не обязательно, ибо нужно найти не только самую точную модель по aic но чтобы она и быстро сходилась: а для этого она должна быть простая совсем, без высоких параметров. То есть я запускал подсчет параметров, а потом брал оттуда самые быстрые и самые низкие и пробовал. Там еще главное, правильно, дифференцирование сезонное сделать: на год. или 8766 часов, если точно Тогда остается только полтора-года и идеальные похожие на нормальные остатки, сейчас вспомнил, я ее не на 2,5 а на 1, 5 года тоже обучал
А сколько арим строили, покластерно или для каждой зоны по параметрам кластера?
источник

АГ

Артём Глазунов... in Machine learning
С этим фильтром у меня получилось 102 модели за 30 мин обучить на 6 месяцах
источник

АГ

Артём Глазунов... in Machine learning
Такой чит какой-то этот фильтр Калмана
источник

I

Ibp in Machine learning
по параметрам кластера, но они тоже не сильно отличались в итоге от baseline на 1231 регионе, только помоему 2 из 5 кластеров отличались
источник

I

Ibp in Machine learning
да я видел, потом надо будет поизучать
источник

I

Ibp in Machine learning
Артём Глазунов
А сколько арим строили, покластерно или для каждой зоны по параметрам кластера?
в смысле 102 аримы в итоге по параметрам кластеров
источник

АГ

Артём Глазунов... in Machine learning
Для каждой зоны я построил ариму по параметрам, подобранным для 1 из 5 кластеров.
источник

I

Ibp in Machine learning
ну я также делал
источник