Size: a a a

Data Science Chat

2021 September 02

I

Igor in Data Science Chat
Почему она выдает расстояние? По сути это сама гиперплоскость определена линейным уравнением и трансформирована (если GLM) в какое-то другое пространство, разве нет?)
источник

I

Igor in Data Science Chat
А определяется уже за счёт уменьшения расстояние до нее с помощью оптимизации
источник

S

Somebody in Data Science Chat
Ну в трехмерном случае <w,x>/||w|| - точно расстояние
В многомерном должно быть то же
<w,x>/||w|| = 0 определяет саму плоскость
источник

S

Somebody in Data Science Chat
Если в <w,x>/||w|| конкретную точку подставить, должно как раз расстояние получиться
источник

S

Somebody in Data Science Chat
Если ||w|| != 1 - ну кого это волнует в регрессиях
Будет расстояние*||w||
источник

S

Somebody in Data Science Chat
Или я что-то путаю
источник

WD

Wilfred Desert in Data Science Chat
Если разделяющая гиперплоскость задана уравнением w^t*x = 0 , то значение — w^t*x_i (или log(odds_ratio)) — это расстояние точки x_i от этой плоскости
источник

WD

Wilfred Desert in Data Science Chat
Грубо говоря, уверенность классификатора в предсказанном лейбле
источник

S

Somebody in Data Science Chat
Сверху модуль
источник

S

Somebody in Data Science Chat
Ну вот грубо говоря
источник

S

Somebody in Data Science Chat
Модуль опускается, чтоб было и отрицательное расстояние
источник

I

Igor in Data Science Chat
Либо я туплю, либо мы о разном говорим либо хз. В случае обычной линейной регрессии в двухмерном пространстве мы ищем прямую минимизируя расстояние точек к ней. В результате у нас есть заданная линейным уравнением прямая, на которой и определенно множество Y, так что  f:X->Y
источник

S

Somebody in Data Science Chat
Ну да
Если из этого классификатор сделать, то как?
источник

I

Igor in Data Science Chat
То, что Вы написали выше - это же про SVM, по сути
источник

S

Somebody in Data Science Chat
Была прямая, заданная уравнением <w,x>=0
Подставляешь конкретную точку в <w,x> получаешь либо >0, либо <0, либо 0
Если больше - 1 класс, если меньше - второй
источник

S

Somebody in Data Science Chat
Нет, свм просто по-другому немного плоскость рисует
источник

S

Somebody in Data Science Chat
В случае логистической мы не просто на знак смотрим, а пропускаем значение через сигмоиду и типа вероятность получаем
источник

I

Igor in Data Science Chat
Да, но поскольку это функциональная зависимость, то и ответом будет область значения функции.
источник

S

Somebody in Data Science Chat
Если прям регрессия-регрессия, то посыл то в том, чтоб найти зависимость между y и вектором переменных х
Тогда мы построим гиперплоскость <w,(y,x)>=0
И из подстановки х будем находить y
источник

I

Igor in Data Science Chat
Все, я вкурил, мы о разном говорили))
источник