Size: a a a

Machine learning

2021 July 05

K

K-S in Machine learning
В общем случае выбрать точку на рок кривой, которая ближе всего к левому верхнему углу, что соответствует идеальному классификатору, и определить исходя из этого значение порога вы можете, но в вашем случае у вас на трейне у дерева рок аук будет 1.0, а кривая будет буквой «Г». Смотрите валидацию
источник

V

Valery in Machine learning
у каждого, наверное, свой параметр есть...если нет, то нужно просто дописать что-то вроде
Y_test[clf.predict_proba(X_test) > threshold]
источник

V

Valery in Machine learning
типа вопрос, как изменить стандартные 0.5 на что-то еще?
источник

СГ

Сергей Городовиков... in Machine learning
Да
источник

K

K-S in Machine learning
Из коробки вроде ж никак. Либо самому править код, либо возвращать вероятности и далее уже самому любой порог навешивать
источник

СГ

Сергей Городовиков... in Machine learning
Вот я это и имел в виду, в лекциях навешивали порог, но выборки и вероятности были ручками заданы , в связи с этим и зародился вопрос
источник

K

K-S in Machine learning
Так предсказывайте вероятности тогда и уже потом используйте любой выбранный вами порог
источник

ФГ

Фариман Гулиев... in Machine learning
Потому что больший batch_size как бы усредняет влияние всех сэмплов, и процесс обучения становится менее зашумленным, а значит более сходящимся.
источник
2021 July 06

В

Вадим in Machine learning
Менее зашумленным в каком плане?
источник

АМ

Андрей Мирошников... in Machine learning
Батч сайз 1 - это по сути стахостический градиентный спуск. А он на "шумный" объектах показывает не к минимуму. Из-за этого модель будет сходиться за большее количество эпох
источник

В

Вадим in Machine learning
Да, я понял что с 1 это по сути sgd, но я не понимаю значения "шумный". Шумный в каком плане?
источник

АМ

Андрей Мирошников... in Machine learning
Объекты не позволяющие восстановить зависимость.
источник

АМ

Андрей Мирошников... in Machine learning
Отличищаюиеся от основной массы объектов
источник

ФГ

Фариман Гулиев... in Machine learning
В плане того куда будет градиент направляться. Чем меньше батч-сайз тем рандомнее направление. И наоборот, при увеличении батч-сайза градиент всё меньше и меньше "рандомит", потому что батч становится всё более и более репрезентативным для всей выборки.
источник

В

Вадим in Machine learning
Все я понял, спасибо
источник

y

yana verina in Machine learning
Кто-нибудь может, пожалуйста, проверить ЦПТ из первого курса?
https://www.coursera.org/learn/mathematics-and-python/peer/4vN1n/tsientral-naia-priediel-naia-tieoriema-svoimi-rukami/review/pK5Vgt12EeuNPgqKXjzy7w
источник

D

Dude in Machine learning
А зачем тебе на каждом графике плотность распределения Вейбула?
источник

D

Dude in Machine learning
желательно еще бы ссылочку распределения на вики и формулы расчета мат. ожидания и дисперсии в latex
источник

y

yana verina in Machine learning
Согласна, Вейбулл не нужен там. Сейчас исправлю
источник

i

igor in Machine learning
Почему вейбул?
источник