Size: a a a

Machine learning

2021 January 20

А

Артем in Machine learning
Svetlana Astafyeva
Зачем?
В ноутбуках или аннотации к заданию всегда написано, какие алгоритмы использовать и какие метрики считать.
Разве нет?
Нет, вроде бы. Там иногда указано: используем значения по умолчанию или просто не указано. Но если указано, то претензий нет
источник

SA

Svetlana Astafyeva in Machine learning
Вот даже про этот 'liblinear', что вы не писали. Я нашла на форуме, что надо поменять этот параметр.
Т.е. ответ уже есть, надо немного приложить усилий, чтобы его найти.
источник

MM

Mira Mironova in Machine learning
Всем привет!)

Хочу со стороны команды курса сказать, что мы стараемся обновлять все оперативно, но для этого нам нужны ваши сигналы. За последний год мы внесли массу правок, благодаря тому, что на форумах студенты нам писали об ошибках или неактуальности каких-то материалов.

Так что, мы рады, если вы нам кидаете информацию такого рода. Прошу только это делать не форме наезда)) а то случается
источник

K

K-S in Machine learning
Svetlana Astafyeva
Например? (Интересно ваше мнение)
1) скрытые марковские модели (ну и, соотвественно, всякие алгоритмы Витерби, Браум-Уэлша итд); 2) вероятностный взгляд на SVM -  RVM; 3) регрессия/классификация на гауссовских процессах (здесь можно даже чтоб сильно глубоко не заходить, просто разобрать детально математику sklearn'овских GaussianProcessRegressor/GaussianProcessClassifier; 4) вообще можно пройтись по тому же sklearn.linear_model по части алгоритмов - LARS какой-нибудь и далее по списку; 5) всякие экзотические регуляризаторы помимо стандартных Ридж/Лассо/Эластичная сеть можно б факультативно поизучать; 6) Байесовские линейные модельки подразумевают использование MCMC. Вот разобрать хотя бы базовые версии алгоритма Метрополиса-Гастингса было бы полезно. Ну и остается очень много современных штук. Как минимум рассказать, как математически устроены UMAP/SHAP итд
источник

K

K-S in Machine learning
но как видите здесь для детального изучения - явно пары месяцев не хватит (особенно если есть работа какая-то параллельно и другая рутина)
источник

SK

Sergey Kozlov in Machine learning
Артем
Я бы обновил курс примерно в таком свете:

В данном методе необходимо использовать такие алгоритмы и такие метрики(даже если они заданы по умолчанию), что поможет избежать ситуации изменения библиотеки
Поддерживаю. Курс так то позиционируется для "начинающих" в питон и ИИ. Как у начинающего может вообще возникнуть мысль что дело в умолчаниях библиотеке? Особенно учитвая что автопроверка обратной связи особо не дает. И по факту ошибка с 4-го знака и далее. На первых курсах кстати требовали просто округленные результаты, и тут это тоже прокатило бы
источник

DP

Dmitry Penzar in Machine learning
K-S
1) скрытые марковские модели (ну и, соотвественно, всякие алгоритмы Витерби, Браум-Уэлша итд); 2) вероятностный взгляд на SVM -  RVM; 3) регрессия/классификация на гауссовских процессах (здесь можно даже чтоб сильно глубоко не заходить, просто разобрать детально математику sklearn'овских GaussianProcessRegressor/GaussianProcessClassifier; 4) вообще можно пройтись по тому же sklearn.linear_model по части алгоритмов - LARS какой-нибудь и далее по списку; 5) всякие экзотические регуляризаторы помимо стандартных Ридж/Лассо/Эластичная сеть можно б факультативно поизучать; 6) Байесовские линейные модельки подразумевают использование MCMC. Вот разобрать хотя бы базовые версии алгоритма Метрополиса-Гастингса было бы полезно. Ну и остается очень много современных штук. Как минимум рассказать, как математически устроены UMAP/SHAP итд
скрытые марковские модели хорошо рассказываются в курсе Певзнера по биоинформатике (Bioinformatics, курсера)
источник

SA

Svetlana Astafyeva in Machine learning
Sergey Kozlov
Поддерживаю. Курс так то позиционируется для "начинающих" в питон и ИИ. Как у начинающего может вообще возникнуть мысль что дело в умолчаниях библиотеке? Особенно учитвая что автопроверка обратной связи особо не дает. И по факту ошибка с 4-го знака и далее. На первых курсах кстати требовали просто округленные результаты, и тут это тоже прокатило бы
Первый курс.
Второй курс уж явно не для начинающих.
источник

K

K-S in Machine learning
Dmitry Penzar
скрытые марковские модели хорошо рассказываются в курсе Певзнера по биоинформатике (Bioinformatics, курсера)
ну вот да, но оно все раскидано сильно. Приходится одну тему в одном источнике, другую - в другом. Ну и тд.
источник

DP

Dmitry Penzar in Machine learning
MCMC - хороошо на курсере дана вводная - https://www.coursera.org/specializations/statistics
источник

SK

Sergey Kozlov in Machine learning
Svetlana Astafyeva
Первый курс.
Второй курс уж явно не для начинающих.
ну у меня пока получается. Питон вижу первый раз в жизни ;)
источник

K

K-S in Machine learning
Другой вопрос, а кому это все надо? Знать как работает условный UMAP дс'y в банке/телекоме нахрен не надо. Это совершенный оверкил. А если заниматься исследованиями, то, вероятно, вы образование будете получать классическое, а не по онлайн курсам
источник

DP

Dmitry Penzar in Machine learning
K-S
ну вот да, но оно все раскидано сильно. Приходится одну тему в одном источнике, другую - в другом. Ну и тд.
ну гугл их хорошо выдает. Я вот про RVM и GaussianProcessRegressor/GaussianProcessClassifier мало слышал (хотя про RVM мне рассказывали что он фичи хорошо селектит, но я сам не пробоовал). Они в каких областях?
источник

MA

Margarita Andrianova in Machine learning
Sergey Kozlov
ну у меня пока получается. Питон вижу первый раз в жизни ;)
а другие яп?)
источник

AO

Alex Ololo in Machine learning
K-S
Другой вопрос, а кому это все надо? Знать как работает условный UMAP дс'y в банке/телекоме нахрен не надо. Это совершенный оверкил. А если заниматься исследованиями, то, вероятно, вы образование будете получать классическое, а не по онлайн курсам
+++
источник

SA

Svetlana Astafyeva in Machine learning
Sergey Kozlov
ну у меня пока получается. Питон вижу первый раз в жизни ;)
Ну вы монстр конечно))))
Я делала большой перерыв между 1 и 2 курсом, чтобы разобраться с библиотеками.
источник

K

K-S in Machine learning
Dmitry Penzar
ну гугл их хорошо выдает. Я вот про RVM и GaussianProcessRegressor/GaussianProcessClassifier мало слышал (хотя про RVM мне рассказывали что он фичи хорошо селектит, но я сам не пробоовал). Они в каких областях?
так да, найти-то не проблема. Изначальный вопрос был, что еще в эту специализацию можно было б закинуть. Вот и пришло в голову
источник

DP

Dmitry Penzar in Machine learning
K-S
Другой вопрос, а кому это все надо? Знать как работает условный UMAP дс'y в банке/телекоме нахрен не надо. Это совершенный оверкил. А если заниматься исследованиями, то, вероятно, вы образование будете получать классическое, а не по онлайн курсам
tSNE + UMAP знать как работают как раз очень желательно. Они не просто понижают размерность, как PCA, а делают плохо дальним расстояниям. И понимать это, понимать, какие параметры крутить, как добиваться того, чтобы глобальные расстояния хоть что-то значили - полезно.
источник

K

K-S in Machine learning
Dmitry Penzar
tSNE + UMAP знать как работают как раз очень желательно. Они не просто понижают размерность, как PCA, а делают плохо дальним расстояниям. И понимать это, понимать, какие параметры крутить, как добиваться того, чтобы глобальные расстояния хоть что-то значили - полезно.
давайте так, уметь тюнить != понимать математику алгоритма
источник

DP

Dmitry Penzar in Machine learning
да можно рассказать на уроввне как сами создатели UMAP показывали
источник