когда я делаю так как предложил Сергей Козлов stochastic_gradient_step(),вместо w0.shape = (4,1 ) я получаю w0.shape = (4,4) w0: [[0.414696 0.414696 0.414696 0.414696] [0.014948 0.014948 0.014948 0.014948] [0.031672 0.031672 0.031672 0.031672] [0.00148 0.00148 0.00148 0.00148 ]] и потом метод не сходится... почему так ?
когда я делаю так как предложил Сергей Козлов stochastic_gradient_step(),вместо w0.shape = (4,1 ) я получаю w0.shape = (4,4) w0: [[0.414696 0.414696 0.414696 0.414696] [0.014948 0.014948 0.014948 0.014948] [0.031672 0.031672 0.031672 0.031672] [0.00148 0.00148 0.00148 0.00148 ]] и потом метод не сходится... почему так ?
все время задаюсь вопросом: почему в мл идут ДО изучения пайтона...
У нас в университете в таком порядке было: 1) матан, лааг, дискретка 2) теория алгоритмов, численные методы 3) основы анализа данных 4) машинное обучение, анализ данных 5) нейросети, нлп
У нас в университете в таком порядке было: 1) матан, лааг, дискретка 2) теория алгоритмов, численные методы 3) основы анализа данных 4) машинное обучение, анализ данных 5) нейросети, нлп