Size: a a a

Data Science Chat

2021 November 16

OS

Oleg Shapovalov in Data Science Chat
про сложности в конвертации - это серьезный поинт
источник

SD

Stanislav Demchenko in Data Science Chat
Сам-то веришь в 10-100 раз? Если бы так было, все бы забыли про другие бустинги
источник

OS

Oleg Shapovalov in Data Science Chat
Да, не раз тестил lightgbm vs xgboost
источник

VV

Vadim Vadim in Data Science Chat
Приветствую. После обучения нейросети с одним выходом(то есть на выходе долны быть 0 или 1. И соответственно число в этом промежутке) она выдает значение немного больше 1. Если ей подать тестовый массив. Почему так может происходить?
источник

M

Misha in Data Science Chat
а насчет веса модели не знаешь? если скорость обучения не так важна. мб такая порядковая разница у тебя была потому, что один алгоритм адоптирован под gpu, а другой нет?
источник

OS

Oleg Shapovalov in Data Science Chat
Нет, учил на cpu и то и то
источник

M

Misha in Data Science Chat
мне кажется, дело в функции активации последнего нейрона. у тебя задача бинарной классификации, а ты мог поставить другое
источник

OS

Oleg Shapovalov in Data Science Chat
Может сейчас что-то изменилось, но пару лет назад xgboost безнадежно был медленный
источник

VV

Vadim Vadim in Data Science Chat
Какую функцию активации можете для этого посоветовать? Я пишу при помощи keras. А функция активации стоит sigmoid.
источник

M

Misha in Data Science Chat
у меня к тебе тогда смежный вопрос. в каких случаях ты бы не использовал вышеперечисленные алгоритмы? например, сейчас есть области для обычной линейной регрессии или других алгоритмов? я попробовал для своей области линрег обучить из соображений, что она сможет лучше аппроксимацию между точками сделать  , но вот тут как раз ошибка было больше на прорядок. ровно в десять раз)
источник

M

Misha in Data Science Chat
если сигмоид, то беру свои слова назад, фигню сказал, мб дело не в ней
источник

M

Misha in Data Science Chat
я сам не знаток) попробуй loss='binary_crossentropy'
источник

VV

Vadim Vadim in Data Science Chat
Хорошо, я попробую. Спасибо)
источник

OS

Oleg Shapovalov in Data Science Chat
Когда мало данных или мало ресурсов для инференс. Наверное так. Но вообще надо в задачу вникать
источник

M

Misha in Data Science Chat
конечно. вообще, это не выглядит ошибкой с точки зрения нейронки, она классифицировала единицу. Это выглядит странно, с точки зрения, что вероятность больше единицы)
источник

ES

Elena Shamis in Data Science Chat
Видела работу, где подобные данные представляются картинкой, а затем керас классифицирует картинки. Вредоносный траффик выглядит иначе
источник

s

sasha in Data Science Chat
всем привет, а кто что использует для деплоя бустов?
источник
2021 November 17

ZZ

Zholkenov Zholkenov in Data Science Chat
Привет все
источник

ZZ

Zholkenov Zholkenov in Data Science Chat
Соррри за глупый вопрос, но это ведь не нормальное распределение
источник

RA

Ruslan Akhmetvaleev in Data Science Chat
это экспоненциальное
источник