Size: a a a

Machine learning

2020 June 29

K

K-S in Machine learning
Valery
Ну вот, как я и говорил - очень разнятся данные 😁
Так у нас не все данные есть. Есть только сроки, заявляемые самими людьми, а вот уровень освоения материала мы не знаем. Если цель — закрыть все д/з и получить сертификаты, то да, тогда вполне можно
источник

ФР

Фёдор Родионов... in Machine learning
Valery
Ну вот, как я и говорил - очень разнятся данные 😁
Думаю, от базы зависит
источник

GG

Galaxy Green in Machine learning
Valery
Обычно да, забываются такие спринты быстро
Для таких случаев я стараюсь после лекций записывать краткий конспект и разбивать неделю на пару дней)
источник

V

Valery in Machine learning
Я посл время делаю перерывы между просмотром лекций и тестами, так гораздо очевиднее потом, что ты не уяснил
источник

y

yithian in Machine learning
А что вообще катбуст может делать в течение 3х часов до момента обучения?
источник

GG

Galaxy Green in Machine learning
Valery
Я посл время делаю перерывы между просмотром лекций и тестами, так гораздо очевиднее потом, что ты не уяснил
++
источник

y

yithian in Machine learning
Честно говоря, Яндекс могли б и побольше логирования насыпать при фитинге.
источник

K

K-S in Machine learning
Valery
Я посл время делаю перерывы между просмотром лекций и тестами, так гораздо очевиднее потом, что ты не уяснил
Отличная стратегия. Правда, один раз после такой паузы я уже к специализации так и не вернулся, и продолжил обучаться по крупицам из разных других источников
источник

ST

Serhii Tiurin in Machine learning
yithian
А что вообще катбуст может делать в течение 3х часов до момента обучения?
если много категориальных то изи
источник

y

yithian in Machine learning
Serhii Tiurin
если много категориальных то изи
Несколько есть, да. Я понимаю, что там энкодится всякое, судя по нагрузке на процессоры, но вот что конкретно и как долго ещё будет - загадка.
источник

V

Valery in Machine learning
K-S
Отличная стратегия. Правда, один раз после такой паузы я уже к специализации так и не вернулся, и продолжил обучаться по крупицам из разных других источников
Ну это просто альтернатива, а не капитуляция)) а почему, формат разонравился?
источник

K

K-S in Machine learning
Valery
Ну это просто альтернатива, а не капитуляция)) а почему, формат разонравился?
Да нет, формат хороший. Просто как-то так сложилось
источник

АГ

Артём Глазунов... in Machine learning
У меня была такая стратегия: смотрел несколько видео, затем их пересматривал на след день, затем читал конспект, потом этот конспект ещё раз читал через месяц. Тест решал через день- два после первого просмотра.
источник

АГ

Артём Глазунов... in Machine learning
И пока не выстраивалась логика по материалу в голове, подходил снова и снова, старался не оставлять пробелов в понимании...
источник

I

Ivan in Machine learning
источник

V

Valery in Machine learning
Артём Глазунов
И пока не выстраивалась логика по материалу в голове, подходил снова и снова, старался не оставлять пробелов в понимании...
Тут нужна дисциплина настоящая)
источник

K

K-S in Machine learning
Ребят, вопрос. Надо будет проводить небольшой воркшоп по введению в нс. Начинать по традиции будем с полносвязных сеток. Хотелось бы сконцентрироваться на разных тех деталях. Пока в голове набросались стандартные пункты:
1) архитектура сети
2) базовые функции активации (сигмоида/тангенс/релу/лики релу) и сравнение их между собой. Мол, почему сигмоида хуже тангенса и почему оба они уже практически полностью заменены релу (на наглядных мат примерах сможем так увидеть проблему затухающего градиента)
3) разбор бэкпропа
4) регуляризация в сетях (L2, dropout neuron, dropout connection)
5) батч нормализация
6) кратенький обзор других оптимизаторов (Adam, rmsprop), но без математики особой. Просто общая суть и что такое моментум

Подскажите, какие ещё аспекты можно в полносвязных обсудить? Заранее спасибо
источник

TK

Tanya Koryaeva in Machine learning
источник

P

Pavel in Machine learning
источник

TK

Tanya Koryaeva in Machine learning
Спасибо большое)
источник