Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 July 02

K

Kamoliddin in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
могу и ошибаться. Сужу по датасету
источник

is

igor shirkalin in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
в конце концов все упирается в датасет и в метод оптимизации. Еще надо написать программу.
источник

is

igor shirkalin in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
метод оптимизации - это имею в  виду  математическое программирование
источник

ЕТ

Евгений Томилов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Предположим, у меня есть целевая переменная типа int от 1 до 25. Я делаю пуассоновскую регрессию простейшую и получаю MAE  3. Пуассоновская модель, ясное дело, выдаёт в качестве ответа тип int. Но я хочу усложнить модель и делаю лес, он выдаёт мне, соответственно, double. Его можно округлить, конечно, и привести к int, но, может, кто-нибудь видел частные случаи моделей, которые предназначены для целочисленной переменной? Гуглю, но, похоже, всё сводится к пуассону или извращённым преобразованиям и последующим бета-биномиальным моделям.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Регрессионную модель с дискретным выходом?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Только классификация
источник

ЕТ

Евгений Томилов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Да, это я и сделал уже, но мало ли, мне неизвестны какие-нибудь глубины.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Есть связь, что 2 между 1 и 3?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Если есть, то я бы делал один выход регрессионный, если нет, то я бы делал классификацию.
источник

ЕТ

Евгений Томилов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Да. Это числа, просто из множества натуральных чисел.
источник

ЕТ

Евгений Томилов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Вот, а классификацию не сделать, потому что слишком много классов будет, а данных слишком мало. Я всё это уже прочекал.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Я бы так решал. Просто трабл в том, что все методы оптимизации, которые не tree-like или не k nearest neighbor, вроде, базируются на производной.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
knn там очевидно не работает?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Делал pce?
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Так фишка Пуассоновской регрессии же как раз в том, что она предсказывает условное матожидание Пуассоновского распределения (лямбду), которое не обязано являться целочисленным, но зная которое можно вычислить вероятность того, что целевая переменная примет любое из целочисленных значений.
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Соответственно, к любому градиентному методу ML, будь то деревья, нейросети, или какая-нибудь дичь, можно просто прикрутить Пуассоновскую голову.
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
То есть взять формулу линейной пуассоновской регрессии из Википедии, и вместо линейной формулы theta * X вставить вашу любимую нелинейную модель.
Например, в xgboost можно в качестве лосса указать count:poisson, или Poisson в катбусте, и будет пуассоновский градиентный бустинг.
Или если у тебя нейросетка на торче, можно в качестве лосса указать PoissonNLLLoss, и будет пуассоновская нейронка.
источник

ЕТ

Евгений Томилов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Хм.
источник

ЕТ

Евгений Томилов... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Хм. Звучит круто, спасибо за идею!
источник
2021 July 03

TM

Tony Montana in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
А вы проходили какой-нибудь курс там?
источник