Ммм, нет - веса ненулевые, но вот если брать mean после стандартизации, там крошечные значения [ 1.22124533e-16 -4.52970994e-16 2.22044605e-16 0.00000000e+00]
Всем привет! Прохожу 2 курс. Тема бустинг. На странице ods курса по этой теме (https://github.com/Yorko/mlcourse.ai/blob/master/jupyter_russian/topic10_boosting/lesson10_part1_boosting.ipynb) написано, что мы настраиваем базовый алгоритм на полученные остатки, т.е. обучаем его по выборке (x,s). В курсе написано, что обучение представляет собой задачу обучения на размеченных данных и используется квадратичная функция ошибки. Т.е. находим такой алгоритм, при котором минимальна кв. ошибка. Я запутался...
каждый базовый алгоритм настраивается предсказывать вектор антиградиента (в случае задачи регрессии -- это есть просто остатки). А поскольку компоненты вектора антиградиента -- это любые вещественные числа, то используем мы регрессионные деревья (которые соответственно минимизируют mse).