Size: a a a

Machine learning

2021 June 22

С

Сергей in Machine learning
Обычно в преподы идут по остаточному принципу, когда в других местах не берут, отсюда оно и такое

Но опять же - не везде так
источник

DP

Dmitry Penzar in Machine learning
ML, если открыть достаточно древние "элементы статистического обучения", недалеко ушел.

Да, есть нейросети, в них бум и те же  трансформеры в книгах не всегда есть.  Но backprop, очевидно, не поменчлся. Да и большая часть интуиций тоже. Условный учебник 2017 года уже будет охватывать почти все основы нейронок
источник

DP

Dmitry Penzar in Machine learning
Если вуз гавно - да.
источник

DP

Dmitry Penzar in Machine learning
Если вуз платит, либо, в случае МГУ, дает "бонус" в зарплате в других местах - то все получше
источник

i

igor in Machine learning
Не думаю
источник

i

igor in Machine learning
Я ушел в преподавание после Майкрософт Интел Скайп huawei
источник

II

Ilya Ilya in Machine learning
Доброго времени суток. Разбираюсь с SVM. У Воронцова в лекциях написано что если M принадлежит (-1,1), то объект попадает внутрь разделяющей полосы. У Клокова с хабра если (0,1). Подскажите пожалуйста, кто по итогу прав, а кто нет. Немного с толку сбивает.
источник

II

Ilya Ilya in Machine learning
источник

С

Сергей in Machine learning
Так это же прекрасно :)))

Я кстати хотел спросить, у тебя случаем нет канала на ютубе?
источник

Gm

Generative model in Machine learning
Кстати плюс
источник

i

igor in Machine learning
Наверное вопрос а определенияз
источник

Gm

Generative model in Machine learning
Я вот че делаю, написал простенькую прогу которая определяет уровень интереса интеллектуальных стран процентно
источник

Gm

Generative model in Machine learning
А дальше выкачиваю запросы и ищу по трендам схожие по популярности и их анализирую
источник

Gm

Generative model in Machine learning
И составляю тир лист того, к чему нужно стремится в первую очередь ориентируясь на баллы
источник

II

Ilya Ilya in Machine learning
что вы имеете в виду?
источник
2021 June 23

ФГ

Фариман Гулиев... in Machine learning
Смысл SVM заключается в том, что он штрафует не только за неправильную классификацию ( M < 0), но и за неуверенность (абсолютные значения M меньше единицы). Можно заметить, что интервал (-1, 0) в принципе одновременно показывает и неуверенность, и ошибочность классификатора. В принципе, мы можем просто со спокойной душой штрафовать за ошибку в этом интервале, прикручивать штраф за неувенность наверное в каком-то смысле странно, потому у Клокова оно может быть выглядит чуть получше. С другой стороны, я уверен, что в итоге функции потерь получаются одинаковыми у обоих лекторов, а это самое важное :)
источник

II

Ilya Ilya in Machine learning
спасибо большое за пояснение)
источник

MM

Mira Mironova in Machine learning
Всем привет!

Теперь по всем организационным моментам вам будет помогать Катя @Katya0110! Примите ее, пожалуйста, со всей теплотой)
источник

Пр

Павел р in Machine learning
источник

VG

Vladimir Generalov in Machine learning
Велком!
источник