Size: a a a

Data Science Chat

2021 November 15

A

Andrey in Data Science Chat
что заряжаете? линейки, деревья? попробуйте LassoCV
источник

Н

Николай in Data Science Chat
Лес регрессор из sklearn
источник

A

Andrey in Data Science Chat
это плохой регрессор, он не экстраполирует.

попробуйте пайплайн StandardScaler -> PCA -> Ridge
источник

A

Andrey in Data Science Chat
а вообще у вас переобучение, и оно конечно же из-за большого числа фич. только понижать размерность, докидывать данных еще... и другие регуляризации.
источник

A

Andrey in Data Science Chat
кстати в лес можно подавать без one hot. если порядок в категориях имеет хоть какой либо смысл к таргету
источник

Н

Николай in Data Science Chat
О как, не знал
источник

Н

Николай in Data Science Chat
Попробую
источник

Н

Николай in Data Science Chat
Спасибо)
источник

ДВ

Дима Волков... in Data Science Chat
Подскажите, пожалуйста.
У меня есть данные для коннекта к postgresql
Как я могу к ней законнектиться через pgAdmin
источник
2021 November 16

M

Misha in Data Science Chat
Здравствуйте. До недавнего времени нормально конвертировалась xgboost модель в coreml. Пришел к такой ошибке. Пробовал разные комбинации версий, но все равно требуются feature names, которые раньше были не нужны..
источник

M

Misha in Data Science Chat
как это обычно бывает, догадался до решения во время написания вопроса) кто столкнется с подобным - дайте в аргумент список фичей именно в питонячьем списке. ещё не проверял, как сгенерилось, но что-то выплюнуло
источник

OS

Oleg Shapovalov in Data Science Chat
А просто интересно, почему xgboost а не catboost/lightgbm?
источник

M

Misha in Data Science Chat
Сугубо вкусовщина без экспертного мнения. В моем мире, catboost больше для предметной области с категориальными фичами.  А xgboost перед lightgbm выбираю, когда есть мощности вычислительные, но нужна модель полегче.  У меня задача как раз с числовыми фичами и важен вес, ибо выполняется на айфоне.

Повторюсь, то, что я выше прочитал - просто отклики, которые я нашел в интернетах, с радостью выслушаю другую точку зрения
источник

M

Misha in Data Science Chat
после начального прототипа, я хотел исследовать разные алгоритмы и смотреть разницу)
источник

AS

Alexander Skovorodko in Data Science Chat
Переслано от Alexander Skovorodko
Ребят, ситуация, есть очень много NaN
Подскажите плиз, их можно заменить с помощью knn?
источник

AS

Alexander Skovorodko in Data Science Chat
Переслано от Alexander Skovorodko
источник

OS

Oleg Shapovalov in Data Science Chat
Я просто слышал, что catboost рвет всех на инференс, а в обучении lightgbm рвет обоих. И я не видел задачи, где xgboost был бы точнее catboost/lightgbm. Поэтому в моем мире выбор стоит только между catboost и lightgbm. Но часто вижу, что используют именно xgboost (часто люди даже не знают про что-то еще)
источник

OS

Oleg Shapovalov in Data Science Chat
но на телефоне я ничего не пускал, поэтому и спросил, вдруг там серьезный анализ уже был проведен
источник

M

Misha in Data Science Chat
catboost я ещё конвернтуть не могу для айфона, а lightgbm только через оболочку scikit-learn с разными финтами ушами, с которыми я пока не хочу сталкиваться)  А "рвёт" в числах выражается? Насколько в твоем мире один алгоритм лучше другого? Мне кажется, что разница между этим алгоритмами не должна быть уровня "рвет", ибо у всех схожая алгоритмическая природа
источник

OS

Oleg Shapovalov in Data Science Chat
рвет - это порядки, 10-100 раз по скорости обучения при аналогичном качестве
источник