Size: a a a

Machine learning

2021 January 20

DP

Dmitry Penzar in Machine learning
Сергей Городовиков
ну, скажем так, мне больше информации дала книга "грокаем алгоритмы" , чем большая часть лекций, которые мне показались не настолько последовательны и понятны
ну да, это плохо говорит о курсе на стэпике(( Грокаем алгоритмы объективно хватает на 3-4. Очень много пропущенного материала и упрощений.
источник

СГ

Сергей Городовиков... in Machine learning
Dmitry Penzar
ну да, это плохо говорит о курсе на стэпике(( Грокаем алгоритмы объективно хватает на 3-4. Очень много пропущенного материала и упрощений.
на 3-4 чего?
источник

SA

Svetlana Astafyeva in Machine learning
Andy
я тоже не согласен, но в чем-то он прав, если не так категорично. вы совершенно правы в том, что такая "работа над ошибками" дает неизмеримо больше, чем простое втыкание в теорию
Конечно мнений на этот счёт может быть много)
Меня вообще не смущает отсутствие обновления ноутов.
Для кого-то это критично и оскорбительно.
Для меня, большей проблемой является довольно непростая теория, которая обычно не разжевана, и надо ещё что-то где-то читать, чтобы разобраться.
Но и это, опять же, моя личная проблема. Наверное, есть те, для кого все довольно просто кажется, и хочется больше хардкора 😁
В общем, это вопрос мнений, не думаю, что тут есть повод для дискуссий.
Если есть конкретные предложения, можно писать Мире.
Если хочется самому помочь, можно ментором курса записаться.
Тут вроде никого насильно не держат - не нравится, есть другие курсы)
источник

DP

Dmitry Penzar in Machine learning
K-S
в 2018/2019 году была статья, где в листочках строятся лин модельки. И это помогает, ну и хоть что-то появляется)
о, нашел статью про lightgbm и это, как-то я это пропустил. А выигрыш в реальности какой-то дает?
источник

СГ

Сергей Городовиков... in Machine learning
К слову, пример с МФТИ, на мой взгляд, не так уместен, так как речь идет не о допуске до обучения а о стиле подачи Нового материала.
источник

DP

Dmitry Penzar in Machine learning
оценка по 5ти-бальной шкале
источник

K

K-S in Machine learning
Dmitry Penzar
о, нашел статью про lightgbm и это, как-то я это пропустил. А выигрыш в реальности какой-то дает?
я вот на прошлой недельке побенчмаркал на трех своих датасетах: одна регрессия и две бинарных классификации. В регрессии - да, дало небольшой буст. В классификации - нет. Но этой версии лгбм в pypi еще нет
источник

SA

Svetlana Astafyeva in Machine learning
Gulfariza
Здравствуйте, подскажите что делать если ответ не принимается ?
Здравствуйте.
Есть разные варианты.
1. Попробовать ещё, грейдер может глючить (хоть и редко).
2. Проверить, корректно ли вы подаете ответ.
3. Проверить свой код, может быть у вас ошибка.
4. Посмотреть форум, может быть кто-то уже сталкивался с этой проблемой и ее решил 😉
5. Написать сюда свой вопрос, сформулированный так, чтобы человек, который год назад это задание делал (и даже формулировку задания не помнит), понял, что вы спрашиваете)
источник

A

Andy in Machine learning
Svetlana Astafyeva
Конечно мнений на этот счёт может быть много)
Меня вообще не смущает отсутствие обновления ноутов.
Для кого-то это критично и оскорбительно.
Для меня, большей проблемой является довольно непростая теория, которая обычно не разжевана, и надо ещё что-то где-то читать, чтобы разобраться.
Но и это, опять же, моя личная проблема. Наверное, есть те, для кого все довольно просто кажется, и хочется больше хардкора 😁
В общем, это вопрос мнений, не думаю, что тут есть повод для дискуссий.
Если есть конкретные предложения, можно писать Мире.
Если хочется самому помочь, можно ментором курса записаться.
Тут вроде никого насильно не держат - не нравится, есть другие курсы)
вообще не может смущать обновления ноутов тех, кто в программирование и в анализ данных не с улицы зашел, а имеет какой-то адекватный бэкграунд...
источник

СГ

Сергей Городовиков... in Machine learning
Dmitry Penzar
оценка по 5ти-бальной шкале
выражусь точнее, эта книга помогла мне понять о чем вообще в лекциях говорят, я не разработчик, сложно судить насколько хватает такого объема материала
источник

SA

Svetlana Astafyeva in Machine learning
Andy
вообще не может смущать обновления ноутов тех, кто в программирование и в анализ данных не с улицы зашел, а имеет какой-то адекватный бэкграунд...
У меня нет никакого адекватного бэкграунда.
И меня не смущает.
источник

A

Andy in Machine learning
вообще плюс
источник

DP

Dmitry Penzar in Machine learning
Сергей Городовиков
выражусь точнее, эта книга помогла мне понять о чем вообще в лекциях говорят, я не разработчик, сложно судить насколько хватает такого объема материала
да, для понимая что происходит она мне понравилась. Правда, я смотрел бегло. Друг друга говорил, что там куча лажи, но  у меня все нет времени проверить)
источник

SA

Svetlana Astafyeva in Machine learning
Ну блин...реально там проблем с гулькин нос... библиотеку поставить, параметр заменить, путь к функции поменять, скобочки у print поставить...
Ну фигня, реально!
Я ещё понимаю, если бы ну нигде нельзя было бы ответ найти...
Уж если я справилась, с образованием строителя, и меня вообще не повергло это в шок, депрессию или уныние, то уж кто угодно осилит!
источник

СГ

Сергей Городовиков... in Machine learning
Svetlana Astafyeva
Конечно мнений на этот счёт может быть много)
Меня вообще не смущает отсутствие обновления ноутов.
Для кого-то это критично и оскорбительно.
Для меня, большей проблемой является довольно непростая теория, которая обычно не разжевана, и надо ещё что-то где-то читать, чтобы разобраться.
Но и это, опять же, моя личная проблема. Наверное, есть те, для кого все довольно просто кажется, и хочется больше хардкора 😁
В общем, это вопрос мнений, не думаю, что тут есть повод для дискуссий.
Если есть конкретные предложения, можно писать Мире.
Если хочется самому помочь, можно ментором курса записаться.
Тут вроде никого насильно не держат - не нравится, есть другие курсы)
про теорию полностью с Вами согласен, изначально возмущения вызывали именно такие моменты. случаи с библиотеками и прочим не так критичны, на мой взгляд
источник

SA

Svetlana Astafyeva in Machine learning
Сергей Городовиков
про теорию полностью с Вами согласен, изначально возмущения вызывали именно такие моменты. случаи с библиотеками и прочим не так критичны, на мой взгляд
Ну там когда начинаешь практику делать, документацию читать, смотреть, какие параметры есть у  метода, то становится более менее понятно, что как работает))
источник

DP

Dmitry Penzar in Machine learning
K-S
я вот на прошлой недельке побенчмаркал на трех своих датасетах: одна регрессия и две бинарных классификации. В регрессии - да, дало небольшой буст. В классификации - нет. Но этой версии лгбм в pypi еще нет
прикольно, а в доках ууже описали)
источник

K

K-S in Machine learning
Dmitry Penzar
прикольно, а в доках ууже описали)
да, но из гита их поставить можно.
источник

K

K-S in Machine learning
кстати, вопрос по байеса. Хотелось бы как-то прокачаться в этой области несколько. Есть на курсере специализация из трех курсов, посвященная чисто байесу от универа Санта-Круза вроде бы. Кто-нибудь проходил? Или поделитесь своими любимыми источниками по байесу
источник

СГ

Сергей Городовиков... in Machine learning
Dmitry Penzar
да, для понимая что происходит она мне понравилась. Правда, я смотрел бегло. Друг друга говорил, что там куча лажи, но  у меня все нет времени проверить)
как до практики дойдет все равно придется освежать знания, главное что некий костяк отложился)
источник