Size: a a a

2019 July 12

K

K-S in catboost_ru
В t-тесте надо ещё думать, зависимые это выборки или нет
источник

AC

Alexander C in catboost_ru
K-S
Зачем так париться, когда есть хи-квадрат?
Хороший вопрос... Не знаю, не сравнивал...
источник

AC

Alexander C in catboost_ru
K-S
Зачем так париться, когда есть хи-квадрат?
Хи квадрат не проще
источник
2019 July 13

AC

Alexander C in catboost_ru
K-S
Зачем так париться, когда есть хи-квадрат?
Если сравнит кто - сообщите мне
источник
2019 July 15

IP

Igor Petrov in catboost_ru
Подскажите, на выборке в 3кк строк какой learning_rate взять лучше?
источник

IP

Igor Popov in catboost_ru
Количество строк никак не влияет на подбор learning_rate
источник

K

K-S in catboost_ru
Igor Popov
Количество строк никак не влияет на подбор learning_rate
Ну разве что на скорость обучения модели.
источник

AD

A D in catboost_ru
Подскажите пожалуйста какой минимальный набор данных для классификации?
Сколько данных и сколько features?
источник

AD

Anna Veronika Dorogush in catboost_ru
Igor Petrov
Подскажите, на выборке в 3кк строк какой learning_rate взять лучше?
Попробуй поставить 0.03 и доучиться до переобучения. Сначала можно поставить дефолтную 1000 итераций, потом если не дообучишься, можно увеличить число итераций.
источник

AD

Anna Veronika Dorogush in catboost_ru
A D
Подскажите пожалуйста какой минимальный набор данных для классификации?
Сколько данных и сколько features?
Сколько есть)
источник

AD

A D in catboost_ru
Anna Veronika Dorogush
Сколько есть)
Например 100?)
источник

AA

Artem Andrienko in catboost_ru
A D
Подскажите пожалуйста какой минимальный набор данных для классификации?
Сколько данных и сколько features?
Предположу, что минимальный - это один семпл и одна фича?
источник

K

K-S in catboost_ru
A D
Например 100?)
Ну... на 100 разве что что-то совсем простое. По типу логрега, svm'a или, возможно, knn
источник

IP

Igor Petrov in catboost_ru
Anna Veronika Dorogush
Попробуй поставить 0.03 и доучиться до переобучения. Сначала можно поставить дефолтную 1000 итераций, потом если не дообучишься, можно увеличить число итераций.
Стоит 0.6 и оно учиться на 10к+ итерациях
источник

AD

Anna Veronika Dorogush in catboost_ru
Igor Petrov
Стоит 0.6 и оно учиться на 10к+ итерациях
ты на валидации ошибку ведь смотришь, не на трейне?
источник

IP

Igor Petrov in catboost_ru
Anna Veronika Dorogush
ты на валидации ошибку ведь смотришь, не на трейне?
На валидации
источник

AD

Anna Veronika Dorogush in catboost_ru
Igor Petrov
На валидации
а ошибка на трейне и на тесте отличается?
источник

AD

Anna Veronika Dorogush in catboost_ru
и сколько итераций надо до сходимости с большим лернинг рейтом?
источник

Аa

Андрей amber4eg in catboost_ru
А что есть "сходимость" в данном контексте? У меня просто тоже датасет на 4М+ записей и использовал LR порядка 0.4.
источник

AD

Anna Veronika Dorogush in catboost_ru
я имею в виду до переобучения за сколько учится
источник