Size: a a a

Machine learning

2020 June 24

O

Osmu in Machine learning
абстрактно это звучит страшно
источник

O

Osmu in Machine learning
)
источник

y

yithian in Machine learning
Но вообще я хз как ооп можно без книжек постичь, да.)
источник

A

Andrey Y in Machine learning
а потом узнать что ооп зло
источник

K

K-S in Machine learning
Andrey Y
люди хотят потыкать мышкой в интернете и устроиться на 1 млн в год
Говорите так, как будто это много)
источник

y

yithian in Machine learning
Смотря миллион чего.)
источник

VZ

Valeriy Zubairov in Machine learning
Зажрались, сэр
источник

y

yithian in Machine learning
Может, миллион редких галапагосских черепах.
источник

O

Osmu in Machine learning
опять про деньги
источник

A

Andrey Y in Machine learning
действительно, тут чат практикующих пиэйчди
источник
2020 June 25

SS

Sergey Salnikov in Machine learning
обучение в офисе в москве
источник

ФР

Фёдор Родионов... in Machine learning
yithian
Но вообще я хз как ооп можно без книжек постичь, да.)
Можно еще пить с друзьями, понимающими в программировании
источник

ФР

Фёдор Родионов... in Machine learning
И они расскажут про инкапсуляцию и полиморфизм
источник

I

Ilyas in Machine learning
Artyom Gruzdev
Большие значения уменьшают переобучение, настраивают вместе с random_strength, bagging_temperature, depth, border_count, grow_policy и bootstrap_type (это наиболее важные гиперпараметры). Чем левее расположена точка переобучения на графике и больше гэп между кривыми, тем выше вероятность, что выбор большего значения l2_leaf_reg может уменьшить переобучение. Обычно берут значения от 2 до 30, но бывало, и значения больше срабатывали.
Спасибо. Параметр равный 3000 уменьшил переобучение, но и ухудшил итоговый скор. Вообще любая борьба с переобучением ухудшает качество модели. Из перечисленного вами все перепробовал кроме bordercount
источник

KM

Kuznetsov Maxim in Machine learning
источник

I

Ibp in Machine learning
Ilyas
Спасибо. Параметр равный 3000 уменьшил переобучение, но и ухудшил итоговый скор. Вообще любая борьба с переобучением ухудшает качество модели. Из перечисленного вами все перепробовал кроме bordercount
так вроде при борьбе с переобучением скор и должен уменьшиться, хотите его при этом увеличить: выявите и уберите мультиколинеарность у фич, если она есть конечно. Это  те фичи корреляция между которыми больше 87 процентов.
источник

K

K-S in Machine learning
Ibp
так вроде при борьбе с переобучением скор и должен уменьшиться, хотите его при этом увеличить: выявите и уберите мультиколинеарность у фич, если она есть конечно. Это  те фичи корреляция между которыми больше 87 процентов.
Откуда такое точное значение?
источник

I

Ibp in Machine learning
K-S
Откуда такое точное значение?
интересовался:), нашел гдето в трудах в интернете, но это конечно примерно:)
источник

RM

Roman Majorant in Machine learning
Благодарю!
источник

AO

Alex Ololo in Machine learning
Roman Majorant
Благодарю!
c возвращением) давно не видели
источник