Size: a a a

Machine learning

2020 April 30

PK

Pavel Kozlov in Machine learning
смотрю что-то знакомое, купил вчера но ещё не читал =)
источник

ДЧ

Дмитрий Чуб 🇷🇺... in Machine learning
Pavel Kozlov
смотрю что-то знакомое, купил вчера но ещё не читал =)
я со всеми книгами так делаю)
источник

PK

Pavel Kozlov in Machine learning
😂 классика
источник

V

Valery in Machine learning
Ахахах, жиза
источник

RN

Roman Nm in Machine learning
Pavel Kozlov
вроде layer_2 = sigmoid(np.dot(layer_1,weights_1_2))
Ну и вообще всё, где участвуют веса второго слоя, weights_1_2
источник

KD

Katerina Dubtsova in Machine learning
Roman Nm
Ну и вообще всё, где участвуют веса второго слоя, weights_1_2
как можно изменить число выходного слоя?
источник

RN

Roman Nm in Machine learning
Katerina Dubtsova
как можно изменить число выходного слоя?
Что такое "число выходного слоя"?
источник

KD

Katerina Dubtsova in Machine learning
Roman Nm
Что такое "число выходного слоя"?
Число нейронов выходного слоя
источник

RN

Roman Nm in Machine learning
Katerina Dubtsova
Число нейронов выходного слоя
В фреймворках есть прямой параметр. А если так, как здесь - с нуля через матрицы, тогда изменить вторую размерность матрицы, соответствующей выходному слою.
источник

KD

Katerina Dubtsova in Machine learning
Roman Nm
В фреймворках есть прямой параметр. А если так, как здесь - с нуля через матрицы, тогда изменить вторую размерность матрицы, соответствующей выходному слою.
менять weight_1_2?
источник

RN

Roman Nm in Machine learning
Katerina Dubtsova
менять weight_1_2?
weights_1_2 = 0.2*np.random.random((hidden_size,1)) - 0.1
Вот здесь в параметрах генерируемой случайной таблицы вместо 1 подставить нужное число. И ещё где-то должен быть вектор bias, у которого тоже должна измениться длина, но в этой реализации, кажется, решили обойтись без него.
источник

KD

Katerina Dubtsova in Machine learning
Roman Nm
weights_1_2 = 0.2*np.random.random((hidden_size,1)) - 0.1
Вот здесь в параметрах генерируемой случайной таблицы вместо 1 подставить нужное число. И ещё где-то должен быть вектор bias, у которого тоже должна измениться длина, но в этой реализации, кажется, решили обойтись без него.
Спасибо  , что подробно объяснили ! пошла гуглить про вектор ))
источник

GB

Gennady Borisov in Machine learning
Вопрос: В кодировщиках есть параметр sparce, чем отличается формат вывода в зависимости от того true там стоит или false, я не могу разобраться в документации.
источник

IK

Ivan Krokhalyov in Machine learning
true - разреженная матрица, false - обычный np array
источник

GB

Gennady Borisov in Machine learning
Ivan Krokhalyov
true - разреженная матрица, false - обычный np array
Чем они принципиально отличаются?
источник

IK

Ivan Krokhalyov in Machine learning
разреженная матрица занимает мало памяти, это бывает критично при огромных матрицах с большим количеством нулей. класс соответственно scipy.sparse
источник

Р

Руслан in Machine learning
Gennady Borisov
Чем они принципиально отличаются?
способом хранения
источник

Р

Руслан in Machine learning
спарс хранится как набор пар (координаты:значение), в то время как обычный нп массив честно хранит все значения
источник

GB

Gennady Borisov in Machine learning
Еще вопрос, что нужно загружать в каггл, чтобы получить скор? Может есть какой-то мануал?=) Как вообще со всем этим работать.  еЕсли курс еще поддерживается, напишите инструкцию последнее пожелание для @Mirileen =)
источник

y

yithian in Machine learning
Неужели в гугле нельзя на всё это ответы найти примерно секунд за 17?
источник