Size: a a a

Machine learning

2021 February 03

DP

Dmitry Penzar in Machine learning
Dmitry Penzar
тут человек пишет код не для команды и явно учится
я согласен, что гавнокод если он не для тебя одного неприемлем (и даже для себя одного лучше не надо) и сам пишу максимально понятный код
источник

DP

Dmitry Penzar in Machine learning
Dmitry Penzar
тут человек пишет код не для команды и явно учится
но конкретно в этом случае вы перегибаете
источник

DP

Dmitry Penzar in Machine learning
код чистый, переменные не названы a, b, c, d, e. Нет закоменченных огромных кусков. Нет яростного гавнокода
источник

A

Andy in Machine learning
да мне пофиг, честно, я ж не разбираю ваш код... просто рекомендации на будущее
источник

i

igor in Machine learning
HelgMcRough
В какой же это вы школе учились интересно ?
Обычная, думаю это был эксперимент какой то
источник

DP

Dmitry Penzar in Machine learning
Andy
да мне пофиг, честно, я ж не разбираю ваш код... просто рекомендации на будущее
кому:?
источник

A

Andy in Machine learning
тема закрыта. пишите, как хотите, хоть на 1С
источник

DP

Dmitry Penzar in Machine learning
еще раз - если мне, то не надо. Если человекуу- то имхо вы зря наехали
источник

SS

Sergey Salnikov in Machine learning
да мы не наезжаем, на скрине - не говнокод. просто замечания по стилистике, на будущее пригодится
источник

DP

Dmitry Penzar in Machine learning
Sergey Salnikov
да мы не наезжаем, на скрине - не говнокод. просто замечания по стилистике, на будущее пригодится
Andy наезжает)
источник

DP

Dmitry Penzar in Machine learning
если это не наезд - то я не знаю определения наезда)
источник

IS

Igor Savinkin in Machine learning
когда я делаю так как предложил Сергей Козлов stochastic_gradient_step(),вместо w0.shape = (4,1 )  я получаю w0.shape = (4,4)
w0: [[0.414696 0.414696 0.414696 0.414696]
[0.014948 0.014948 0.014948 0.014948]
[0.031672 0.031672 0.031672 0.031672]
[0.00148  0.00148  0.00148  0.00148 ]]
и потом метод не сходится...
почему так ?
источник

SS

Sergey Salnikov in Machine learning
Andy - не наезжай
источник

A

Andy in Machine learning
Dmitry Penzar
Andy наезжает)
я не наезжаю )
источник

A

Andy in Machine learning
Dmitry Penzar
если это не наезд - то я не знаю определения наезда)
"просто замечания по стилистике, на будущее пригодится"
источник

Y

Yz in Machine learning
Igor Savinkin
когда я делаю так как предложил Сергей Козлов stochastic_gradient_step(),вместо w0.shape = (4,1 )  я получаю w0.shape = (4,4)
w0: [[0.414696 0.414696 0.414696 0.414696]
[0.014948 0.014948 0.014948 0.014948]
[0.031672 0.031672 0.031672 0.031672]
[0.00148  0.00148  0.00148  0.00148 ]]
и потом метод не сходится...
почему так ?
А функция для шага градиента какая?
источник

M

Misha in Machine learning
Andy
все время задаюсь вопросом: почему в мл идут ДО изучения пайтона...
У нас в университете в таком порядке было:
1) матан, лааг, дискретка
2) теория алгоритмов, численные методы
3) основы анализа данных
4) машинное обучение, анализ данных
5) нейросети, нлп
источник

M

Misha in Machine learning
Были конечно другие дисциплины вроде компьютерных сетей, плюсы, шарпы, джава
Но в чем суть: пайтона у нас не было)
источник

Y

Yz in Machine learning
Misha
У нас в университете в таком порядке было:
1) матан, лааг, дискретка
2) теория алгоритмов, численные методы
3) основы анализа данных
4) машинное обучение, анализ данных
5) нейросети, нлп
Какая специальность?
источник

M

Misha in Machine learning
ИИ
источник