Size: a a a

Machine learning

2021 February 24

V

Valery in Machine learning
а что за тест и неделя?
источник

K

K-S in Machine learning
Dasha Klimanova
Да вроде есть. Но, видимо, я не те выбираю. Уже начинает полыхать с этого теста. В первый раз с таким сталкиваюсь
Ну тогда в тесте ошибка с большой долей вероятности
источник

K

K-S in Machine learning
Dasha Klimanova
Доброго вечера! У меня тут уже крик отчаяния на казалось бы нелепом месте. Прохожу сейчас курс по поиску структуры в данных. На второй неделе там вылезает тест, который я уже второй день не могу пройти из-за этих двух вопросов( Никто не сталкивался с этой "радостью"? Варианты ответов сформулированы криво, и лекции с конспектом не спасают...
А, тут ещё и второй вопрос был
источник

DK

Dasha Klimanova in Machine learning
Неделя 2. Тест "Понижение размерности и отбор признаков"
источник

DK

Dasha Klimanova in Machine learning
Вот здесь мне вообще логичным только последний ответ показался, но нет
источник

K

K-S in Machine learning
Dasha Klimanova
Доброго вечера! У меня тут уже крик отчаяния на казалось бы нелепом месте. Прохожу сейчас курс по поиску структуры в данных. На второй неделе там вылезает тест, который я уже второй день не могу пройти из-за этих двух вопросов( Никто не сталкивался с этой "радостью"? Варианты ответов сформулированы криво, и лекции с конспектом не спасают...
Второй вариант во втором вопросе очень криво сформулирован. Так и не понял, что имели авторы в виду. А так 1. 4 — нет, 3 тоже нет, так как в каком-нибудь RF никакого градиента вообще нет
источник

Y

Yz in Machine learning
Dasha Klimanova
Неделя 2. Тест "Понижение размерности и отбор признаков"
4 - 1, 2
6 - 1, 3, 4
Так не подходит ?
источник

Y

Yz in Machine learning
K-S
Второй вариант во втором вопросе очень криво сформулирован. Так и не понял, что имели авторы в виду. А так 1. 4 — нет, 3 тоже нет, так как в каком-нибудь RF никакого градиента вообще нет
Второй вариант про жадный отбор похож на тест на дурачка - типа чем мы тут вообще занимаемся
источник

DK

Dasha Klimanova in Machine learning
Yz
4 - 1, 2
6 - 1, 3, 4
Так не подходит ?
Спасибо, попробую
Но в 4 бред же выходит с "частичным" перебором. Лектор в лекции постоянно говорил, что жадные как раз все перебирают, а тут блен уже "частичный"
источник

DK

Dasha Klimanova in Machine learning
Либо я уже не догоняю
источник

V

Valery in Machine learning
источник

Y

Yz in Machine learning
Dasha Klimanova
Спасибо, попробую
Но в 4 бред же выходит с "частичным" перебором. Лектор в лекции постоянно говорил, что жадные как раз все перебирают, а тут блен уже "частичный"
Частичный в том смысле, что вы делаете не все возможные переборы, а добавляете по одному
источник

Y

Yz in Machine learning
В конспекте вроде нормально это написано
источник

K

K-S in Machine learning
Dasha Klimanova
Спасибо, попробую
Но в 4 бред же выходит с "частичным" перебором. Лектор в лекции постоянно говорил, что жадные как раз все перебирают, а тут блен уже "частичный"
Полный перебор — это супер дорого вычислительно. Бэквард-форвард отборы как раз и являются частичными
источник

DK

Dasha Klimanova in Machine learning
Да это то понятно. Но не в контексте сказанного в лекции. Там постоянно он акцентирует внимание на том, что алгоритмы пытаются перебрать все и оттого такие медленные, если их не апгрейдить
источник

DK

Dasha Klimanova in Machine learning
И я так понимаю, 4й вариант не подходит из-за слова "всегда"? Потому как в нем вроде все как раз верно звучит
источник

DK

Dasha Klimanova in Machine learning
Переслано от Dasha Klimanova
Вот здесь мне вообще логичным только последний ответ показался, но нет
источник

V

Valery in Machine learning
так, я истратил все 3 попытки
источник

V

Valery in Machine learning
ниче не зашло )))
источник

V

Valery in Machine learning
засим откланиваюсь ахахах
источник