Size: a a a

ML Boot Camp Official

2020 March 04

P

Polosataya in ML Boot Camp Official
не могу понять как.. там если 285.. то один час будет много раз встречаться... но как его из отрезка вынести то?
источник

ИБ

Иван Брагин in ML Boot Camp Official
Alexey Tikhonov
Даёт?
в нейронках такое не прокатит, бустинг такое может и любит
источник

AT

Alexey Tikhonov in ML Boot Camp Official
У тебя же есть какой то секретный соус, да?
источник

ИБ

Иван Брагин in ML Boot Camp Official
Polosataya
не могу понять как.. там если 285.. то один час будет много раз встречаться... но как его из отрезка вынести то?
s = 125
e = 1890
s24 = s%24
e24 = e%24

count = (e-s)//24
interested_hour = 8
if s24 < interested_hour and e24 > interested_hour:
   count+=1

count
источник

ИБ

Иван Брагин in ML Boot Camp Official
Polosataya
не могу понять как.. там если 285.. то один час будет много раз встречаться... но как его из отрезка вынести то?
# test
count2 = 0
for i in range(e//24+1):
   h = (i*24 + interested_hour)
   if h >= s and h <= e:
       count2+=1
#         print(h)
   
count2
источник

ИБ

Иван Брагин in ML Boot Camp Official
может где то и баг, но вроде корректно
источник

ИБ

Иван Брагин in ML Boot Camp Official
два варианта
источник

P

Polosataya in ML Boot Camp Official
Иван Брагин
s = 125
e = 1890
s24 = s%24
e24 = e%24

count = (e-s)//24
interested_hour = 8
if s24 < interested_hour and e24 > interested_hour:
   count+=1

count
о..спасибо...
источник

AT

Alexey Tikhonov in ML Boot Camp Official
Граали пошли
источник

ИБ

Иван Брагин in ML Boot Camp Official
Alexey Tikhonov
У тебя же есть какой то секретный соус, да?
да там просто жесть, дышать нельзя инача cv вниз улетает
источник

ИБ

Иван Брагин in ML Boot Camp Official
я пару дней назад засабмитил свои локальные 12.5, на lb улетел на 13.4
источник

ИБ

Иван Брагин in ML Boot Camp Official
Alexey Tikhonov
Граали пошли
какие граали, просто ответ на вопрос,к отрый кодится за пару минут
источник

AT

Alexey Tikhonov in ML Boot Camp Official
😳
источник

ИБ

Иван Брагин in ML Boot Camp Official
граали в том, что я этого не использую
источник

K

K-S in ML Boot Camp Official
Прочитал сейчас статью по поводу использования эмбеддингов для кодирования катфичей и не уверен, что верно понял концепцию.

То есть, скажем, у нас есть катфича с 12-ю уникальными значениями. Я строю обычный перцептрон, где в качестве независимой фичи подаётся моя катфича, а в качестве зависимой - исходный таргет.

И после обучения, я вытаскиваю значения в нейронах с первого скрытого слоя. Это и есть мои эмбеддинги. Я неверно понял?
источник

ИБ

Иван Брагин in ML Boot Camp Official
K-S
Прочитал сейчас статью по поводу использования эмбеддингов для кодирования катфичей и не уверен, что верно понял концепцию.

То есть, скажем, у нас есть катфича с 12-ю уникальными значениями. Я строю обычный перцептрон, где в качестве независимой фичи подаётся моя катфича, а в качестве зависимой - исходный таргет.

И после обучения, я вытаскиваю значения в нейронах с первого скрытого слоя. Это и есть мои эмбеддинги. Я неверно понял?
в теории не знаю, но с точки зрения практики выглядит так.
создается dict под кат фичу. Ключ - значение фичи, значение какой то эмбеддинг. При подачи этой фичи в нейронку вместо неё берется эмбединг. Далее считаются градиенты и эмбеддинг оптимизируется.
В итоге у тебя есть dict фича->эмбеддинг
источник

ИБ

Иван Брагин in ML Boot Camp Official
cat_feature=1 -> [0.1,0.02,0.5] -> NN -> target
optimizer
cat_feature=1-> [0.101,0.019,0.51] -> NN -> target
optimizer
cat_feature=5 -> [0.8,0.3,0.1] -> NN -> target
...
источник

K

K-S in ML Boot Camp Official
А как инициализируется этот самый эмбеддинг в начале?
источник

ИБ

Иван Брагин in ML Boot Camp Official
как и остальные веса нейронки
источник

K

K-S in ML Boot Camp Official
А в качестве таргета выступает что?
источник