Size: a a a

Machine learning

2020 June 25

RM

Roman Majorant in Machine learning
Дааа, получил выгорание, но, вроде, выбрался)

Снова ботаю спецуху
источник

AO

Alex Ololo in Machine learning
Roman Majorant
Дааа, получил выгорание, но, вроде, выбрался)

Снова ботаю спецуху
дада)) помню вы там прям налетели на все  что можно ..
источник

RM

Roman Majorant in Machine learning
Alex Ololo
дада)) помню вы там прям налетели на все  что можно ..
Даааа, но зато сделал многое)))
источник

I

Ilyas in Machine learning
Ibp
так вроде при борьбе с переобучением скор и должен уменьшиться, хотите его при этом увеличить: выявите и уберите мультиколинеарность у фич, если она есть конечно. Это  те фичи корреляция между которыми больше 87 процентов.
Спасибо, интересная мысль
источник

I

Ilyas in Machine learning
Ibp
так вроде при борьбе с переобучением скор и должен уменьшиться, хотите его при этом увеличить: выявите и уберите мультиколинеарность у фич, если она есть конечно. Это  те фичи корреляция между которыми больше 87 процентов.
Уменьшение на тесте
источник

I

Ibp in Machine learning
Ilyas
Спасибо, интересная мысль
по хорошему нужно экспериментировать:  удалять-прибавлять признаки и смотреть что получится, перебором
источник

I

Ilyas in Machine learning
Ibp
так вроде при борьбе с переобучением скор и должен уменьшиться, хотите его при этом увеличить: выявите и уберите мультиколинеарность у фич, если она есть конечно. Это  те фичи корреляция между которыми больше 87 процентов.
А если связь не линейная? Дерево переобучиться, а линейная связь фичей будет маленькая
источник

I

Ibp in Machine learning
Ilyas
А если связь не линейная? Дерево переобучиться, а линейная связь фичей будет маленькая
ну говорю надо пробовать: у меня в xgboost такое было: добавлял некоторые новые фичи и качество ухудшалось, добавлял другие - увеличивалось. Все еще зависит от того сколько их там у вас и делали ли вы селекцию признаков по важности
источник

K

K-S in Machine learning
Упрощайте модель:

1) уменьшаем признаковое пространство (можете выкинуть по пермутейшн разнице, можете добавить колонку с шумом и удалить все, что имеет важность ниже шума). В общем по отбору фич много стратегий и на корреляции лучше вообще не смотреть

2) уменьшайте глубину деревьев/увеличивайте минимальное кол-во наблюдений в листе

3) l1/l2 регуляризация
источник

O

Osmu in Machine learning
Ibp
Подскажите, пожалуйста, по питону:
я так понимаю, что выражение типа
if x and x !=y:
равнозначно
if x !=y:
   if x:
?
Как называется такое условие и где о таких конструкциях почитать можно?
что?
источник

O

Osmu in Machine learning
если икс что
источник

O

Osmu in Machine learning
если икс и икс не равен игрек
источник

O

Osmu in Machine learning
что за бред, мой мозг
источник

y

yithian in Machine learning
Почему?
источник

O

Osmu in Machine learning
потому что оно ничего не делает
источник

O

Osmu in Machine learning
оно
источник

I

Ibp in Machine learning
Osmu
потому что оно ничего не делает
я же написал тождество и оно работает потому и вопрос был, но уже разобрался
источник

O

Osmu in Machine learning
тождество работает всегда, если есть имена или значения сравнения
источник

O

Osmu in Machine learning
очевидно
источник

I

Ilyas in Machine learning
K-S
Упрощайте модель:

1) уменьшаем признаковое пространство (можете выкинуть по пермутейшн разнице, можете добавить колонку с шумом и удалить все, что имеет важность ниже шума). В общем по отбору фич много стратегий и на корреляции лучше вообще не смотреть

2) уменьшайте глубину деревьев/увеличивайте минимальное кол-во наблюдений в листе

3) l1/l2 регуляризация
Спасибо, пермут, что это?))
источник