Size: a a a

Machine learning

2021 February 24

i

igor in Machine learning
Dmitry Penzar
а чем тебе не нравится 1?
Можно придумать задачу в которой жадный алгоритм будет делать не частичный перебор.
источник

DP

Dmitry Penzar in Machine learning
Скорее можно найти задачу, где они найдут лучший поднабор признаков, да
источник

DP

Dmitry Penzar in Machine learning
Криво тоже сказано
источник

DP

Dmitry Penzar in Machine learning
Кванторы понаставлены где не надо, и не поставлены, где надо
источник

ET

Elena Tanygina in Machine learning
Алиса
Приветик всем
Нужно ли нормализовать данные для задачи кластеризации и пытаться привести их к нормальному ввиду
Если да, то зачем?
Если используется в алгоритме расстояние в геометрическом пространстве в качестве критерия схожести, то да, признаки дб в одной «шкале», иначе какой-то признак будет «перевешивать». Мб существуют алгоритмы, где не надо делать нормализацию, но я не знаю про них.
источник

А

Алиса in Machine learning
Elena Tanygina
Если используется в алгоритме расстояние в геометрическом пространстве в качестве критерия схожести, то да, признаки дб в одной «шкале», иначе какой-то признак будет «перевешивать». Мб существуют алгоритмы, где не надо делать нормализацию, но я не знаю про них.
А нужно ли пытаться приводить мое распределение к нормальному виду?
Просто у меня оно виде экспоненты и если взять ln, то будет как нормальное распределение
источник

ET

Elena Tanygina in Machine learning
Алиса
А нужно ли пытаться приводить мое распределение к нормальному виду?
Просто у меня оно виде экспоненты и если взять ln, то будет как нормальное распределение
В задачах регрессии это иногда улучшает качество модели. С кластеризацией получится, что кластеры по другому будут сформированы, и тут вопрос , какой вариант лучше. Можно попробовать сделать визуализацию на двух признаках и посмотреть с тз практики/бизнес-задачи, что больше похоже на правду, либо посмотреть в сторону метрик оценки качества кластеризации.
источник

А

Алиса in Machine learning
Elena Tanygina
В задачах регрессии это иногда улучшает качество модели. С кластеризацией получится, что кластеры по другому будут сформированы, и тут вопрос , какой вариант лучше. Можно попробовать сделать визуализацию на двух признаках и посмотреть с тз практики/бизнес-задачи, что больше похоже на правду, либо посмотреть в сторону метрик оценки качества кластеризации.
Спасибо
источник

н

настя !! in Machine learning
источник

AA

Anvar Allagulov in Machine learning
источник

н

настя !! in Machine learning
Окей
источник

AA

Anvar Allagulov in Machine learning
слуш, а почему ты из формул не вывела вот эти

mu = ss.expon.expect()                  # вычисляем параметры нормального распределения
sigma = ss.expon.var()/math.sqrt(5)     # через параметры экспоненциального распределения
norm_rv = ss.norm(loc=mu, scale=sigma)  # определяем согласно им нормальное распределение

про это же было задание?

https://ru.wikipedia.org/wiki/%D0%AD%D0%BA%D1%81%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%86%D0%B8%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B5_%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5
источник

AA

Anvar Allagulov in Machine learning
при лямбде = 1, mu = sigma = 1, ну и все =)
источник

AA

Anvar Allagulov in Machine learning
я, правда, сам в этот пункт (вывести значения теоретически) оч долго втыкал, часы потратил, чтобы понять, что от меня требуется)
источник

AA

Anvar Allagulov in Machine learning
Anvar Allagulov
при лямбде = 1, mu = sigma = 1, ну и все =)
а лямбда = 1 - это дефолтовое значение

https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.expon.html

The probability density above is defined in the “standardized” form. To shift and/or scale the distribution use the loc and scale parameters. Specifically, expon.pdf(x, loc, scale) is identically equivalent to expon.pdf(y) / scale with y = (x - loc) / scale. Note that shifting the location of a distribution does not make it a “noncentral” distribution; noncentral generalizations of some distributions are available in separate classes.

A common parameterization for expon is in terms of the rate parameter lambda, such that pdf = lambda * exp(-lambda * x). This parameterization corresponds to using scale = 1 / lambda.
источник

AA

Anvar Allagulov in Machine learning
источник

н

настя !! in Machine learning
Ну я просто в лоб взяла из выборки дисперсию и мат. ожидание. Спасибо, попробую на досуге разобраться с лямбдой
источник

КА

Кира Адлер in Machine learning
Всем привет. Кто работал с Vowpal Wabbit? Застряла с #C6W6 по идентификации пользователей. Принимает все ответы кроме полученных классификатором этой библиотеки. Может кто-то подсказать? Буду очень благодарна. Уже несколько дней мучаюсь
источник

SS

Sergey Salnikov in Machine learning
задачу не знаю, но с vw работал, его надо уметь готовить, особое внимание на генерацию файла и параметры командной строки (для получения вероятностей нужны танцы с бубном)
источник

SS

Sergey Salnikov in Machine learning
там классификация?
источник