Size: a a a

Data Science Chat

2021 September 02

AI

Andrey Ivanov in Data Science Chat
Да только логистическая
источник

AI

Andrey Ivanov in Data Science Chat
Задавай конкретный вопрос если с нуля проще в интернете прочитать
источник

NC

Nikita Chepurenko in Data Science Chat
😅 ну это я понял
источник

I

Igor in Data Science Chat
Конечно могу. Она возвращает вероятность, а не клас)
источник

NC

Nikita Chepurenko in Data Science Chat
А и по этому регрессия?
Спасибо
источник

NC

Nikita Chepurenko in Data Science Chat
Не, я как раз конкретно задал, было написано что в первую очередь это регрессия, вот и не понял почему.
Спасибо
источник

NC

Nikita Chepurenko in Data Science Chat
Ну так то да, тогда можно говорить это про многие классификаторы с логитом или я что-то путаю?
источник

RN

Roman Nm in Data Science Chat
Любая классификация возвращает вероятность. Или несколько, если многоклассовая
источник

I

Igor in Data Science Chat
Даже не совсем так. Регрессия отражает функциональную зависимость переменной от определённого набора независимых переменных. Логика работы что логистической что обычной что любой другой одинакова, отличающаяся лишь функцией
источник

NC

Nikita Chepurenko in Data Science Chat
Никогда не слышал спасибо за информацию
источник

I

Igor in Data Science Chat
Я не совсем правильно выразился, ниже исправился)
источник

I

Igor in Data Science Chat
Но, опять же, есть вероятность определена функцией вероятности, а есть доля объектов в выборке.
источник

И

Игорь in Data Science Chat
источник

WD

Wilfred Desert in Data Science Chat
Кажется, иногда вводит в заблуждение то, что метод predict() возвращает 0 и 1, неявным образом используя порог в P=0.5

По большому счету, моделирование заканчивается на стадии получения вероятностей — а дальше уже принятие решения, выбор нужного трешхолда)

Помню, кто-то на stats.stackexchange даже предлагал оставить только predict_proba(), чтобы не было ощущения, что классификация — это нолики и единички)
источник

I

Igor in Data Science Chat
В зависимости от того чем заниматься)) Регрессия, по сути, более мощный инструмент, чем получение точечной оценки)
источник

WD

Wilfred Desert in Data Science Chat
Ну, я к тому, что в реальных задачах, где сбалансированные датасеты крайне редки, метод predict() в таком виде вряд ли шибко полезен
источник

I

Igor in Data Science Chat
Я бы вообще убрал регрессию из sklearn) Уже если ей пользоваться, то либо statsmodels либо PyMC3 (если речь о python)
источник

WD

Wilfred Desert in Data Science Chat
Вот тут интересная статья на эту тему как раз:

https://www.fharrell.com/post/classification/
источник

S

Somebody in Data Science Chat
Регрессия выдает расстояние от разделяющей гиперплоскости, мы по своим хотелкам обзываем это логарифмом отношений вероятностей принадлежности точки к классу 1, пропускаем через сигмоиду  и получаем типа вероятность - а на самом деле просто величину от 0 до 1
источник

NC

Nikita Chepurenko in Data Science Chat
Понял спасибо 😉
источник