Size: a a a

ML Boot Camp Official

2020 April 02

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Дмитрий Симаков
А где бы последнюю сотню глянуть?
Ну например чекнуть цитаты топовых статей
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Про амоебу тогда посмотрю.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Nasbench например
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
В целом статей которые не показывают бенчи для дифференцируемых насов имхо не очень интересны)
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Evgeniy Zheltonozhskiy🇮🇱
В целом статей которые не показывают бенчи для дифференцируемых насов имхо не очень интересны)
Я для дифференцируемых нашел сразу DARTS, но в области пока ничего не знаю, поэтому хз, насколько она хорошая.

Спасибо.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Дмитрий Симаков
Я для дифференцируемых нашел сразу DARTS, но в области пока ничего не знаю, поэтому хз, насколько она хорошая.

Спасибо.
Ну дартс это первая реальная работа
источник

K

K-S in ML Boot Camp Official
Извиняйте за спам.

есть следующая запись dy_vec / dW, где y_vec - вектор размерностью (2х1), а в W - квадратная матрица размерностью 2х2, при этом y(1) = w(11) * x(11) +  w(12) * x(21) + b(11),
а y(2) = w(21) * x(11) +  w(22) * x(21) + b(21).

(x - вектор 2х1, b - вектор 2х1)

Верно ли я понимаю, что запись dy_vec/dW означает взятие производной от каждого элемента вектора y_vec по каждому элементу матрицы W? То есть конкретно в данном случае размерность dy_vec/dW будет (2х4)?

Или производная y(1) по w(21) и w(22) даже браться не будет? (Так-то там нули получаются, поскольку w(21) и w(22) даже не присутствуют в выражении для y(1)). Заранее большое спасибо
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
K-S
Извиняйте за спам.

есть следующая запись dy_vec / dW, где y_vec - вектор размерностью (2х1), а в W - квадратная матрица размерностью 2х2, при этом y(1) = w(11) * x(11) +  w(12) * x(21) + b(11),
а y(2) = w(21) * x(11) +  w(22) * x(21) + b(21).

(x - вектор 2х1, b - вектор 2х1)

Верно ли я понимаю, что запись dy_vec/dW означает взятие производной от каждого элемента вектора y_vec по каждому элементу матрицы W? То есть конкретно в данном случае размерность dy_vec/dW будет (2х4)?

Или производная y(1) по w(21) и w(22) даже браться не будет? (Так-то там нули получаются, поскольку w(21) и w(22) даже не присутствуют в выражении для y(1)). Заранее большое спасибо
Размерность будет 2*2*2, а так да
источник

SD

Stanislav Demchenko in ML Boot Camp Official
K-S
Извиняйте за спам.

есть следующая запись dy_vec / dW, где y_vec - вектор размерностью (2х1), а в W - квадратная матрица размерностью 2х2, при этом y(1) = w(11) * x(11) +  w(12) * x(21) + b(11),
а y(2) = w(21) * x(11) +  w(22) * x(21) + b(21).

(x - вектор 2х1, b - вектор 2х1)

Верно ли я понимаю, что запись dy_vec/dW означает взятие производной от каждого элемента вектора y_vec по каждому элементу матрицы W? То есть конкретно в данном случае размерность dy_vec/dW будет (2х4)?

Или производная y(1) по w(21) и w(22) даже браться не будет? (Так-то там нули получаются, поскольку w(21) и w(22) даже не присутствуют в выражении для y(1)). Заранее большое спасибо
Че за курс решаешь?
источник

K

K-S in ML Boot Camp Official
Stanislav Demchenko
Че за курс решаешь?
От самсунга по сетям
источник

IV

Ivan Veriga in ML Boot Camp Official
K-S
От самсунга по сетям
Ну и как он? Говорят по NLP нормальный был, а что с этим?)
источник

K

K-S in ML Boot Camp Official
Ivan Veriga
Ну и как он? Говорят по NLP нормальный был, а что с этим?)
А я и начинал с курса по nlp, но на трети понял, что там предполагается, что многие вещи по тем же сверточным/рекуррентным сетям человеку уже известны, а так как я в сетях дальше перцептрона не заходил, то решил сначала начать с этого курса.
источник

SD

Stanislav Demchenko in ML Boot Camp Official
Мне не особо понравилось, что в феврале они на собесы позвали чуваков, у двух из которых был одинаковый до 12 знака скор в конкурсе; ещё у трёх других также скор был одинаковый, но отличный от первой пары. Мне даже интересно, как случайно такое возможно)
источник

IV

Ivan Veriga in ML Boot Camp Official
K-S
А я и начинал с курса по nlp, но на трети понял, что там предполагается, что многие вещи по тем же сверточным/рекуррентным сетям человеку уже известны, а так как я в сетях дальше перцептрона не заходил, то решил сначала начать с этого курса.
О, спасибо за инфу. Я тоже хотел начать с nlp
источник

IV

Ivan Veriga in ML Boot Camp Official
Что кстати странно, у них в описании к курсу не предполагаются такие знания
источник

IV

Ivan Veriga in ML Boot Camp Official
Матан да, наличие базовых знаний ml тоже
источник

IV

Ivan Veriga in ML Boot Camp Official
Но по сетям, вроде ни слова
источник

K

K-S in ML Boot Camp Official
Ivan Veriga
Что кстати странно, у них в описании к курсу не предполагаются такие знания
Да, там и тестик даже был в начале. + я торч хотел на каком-то базовом уровне освоить, а то в курсе по nlp предполагается, что вы его уже знаете
источник

IV

Ivan Veriga in ML Boot Camp Official
K-S
Да, там и тестик даже был в начале. + я торч хотел на каком-то базовом уровне освоить, а то в курсе по nlp предполагается, что вы его уже знаете
А я первую неделю проходил, познакомился немного. Значит забыл уже, потому что проходил как только он появился)
источник

A

Arseniy in ML Boot Camp Official
Stanislav Demchenko
Мне не особо понравилось, что в феврале они на собесы позвали чуваков, у двух из которых был одинаковый до 12 знака скор в конкурсе; ещё у трёх других также скор был одинаковый, но отличный от первой пары. Мне даже интересно, как случайно такое возможно)
Там в тесте 744 картинки. Тогда шаг в точности 1/744,  всего возможных значений метрики выше 0.95 ~ 0.05*744=37 , а на лидерборде в этом диапазоне больше 100 участников.  Вроде не так уж и маловероятно или я ошибаюсь
источник