Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 January 04

IB

Islom Babaev in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
скорее всего модель либо оверфитит либо андерфитит
источник

IB

Islom Babaev in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
попробуйте добавить Dropout layerы
источник

I

I am in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
тебе такое нужно для каждого узла сделать
источник

X

Xplwfcwef041 in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Islom Babaev
попробуйте добавить Dropout layerы
Хорошо, попробую спасибо
источник

US

Uladzislau Starasotn... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Добрый день! Не подскажете как обучить модель на встроенной видеокарте?
источник

A

Alexei in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Uladzislau Starasotnikau
Добрый день! Не подскажете как обучить модель на встроенной видеокарте?
jupyter
источник

US

Uladzislau Starasotn... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
🥲
источник

I

Ingvar in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Uladzislau Starasotnikau
Добрый день! Не подскажете как обучить модель на встроенной видеокарте?
Со слезами на глазах
источник

A

Alexandr in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Вроде же все видеокарты от nvidia подходят для tf и PyTorch?
источник

DK

Danil Kalinin in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Alexandr
Вроде же все видеокарты от nvidia подходят для tf и PyTorch?
Не под все есть сбилженная актуальная версия, но ручками билдится под все
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Xplwfcwef041
Доброе утро народ.
Простите, я полный новичок в нейросетях,возможно задаю глупый вопрос.
Писал свою библиотеку простой нейросети, и допустим нейронка выдала 0.6 а ожидаемый ответ 0.1 и чтоб найти ошибку я делаю 0.1-0.6
И вся сейросеть превращается в кашу с отрицательными весами.
Подскажите пожалуйста,что я упустил
Ну нейросеть так-то по построению - каша; это её ожидаемое свойство 😄 А в чем проблема отрицательных весов?
источник

o

oles in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
привет! подскажите плз по какому принципу версии кераса меняются, которые с тензорфалоу идут? ставилю tf v2.0 там керас 2.2.4, ставлю 1.14, там такая же версия. устанавливаю через pip
источник

o

oles in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
проверяю через 'from tensorflow import keras print(keras.version)'
источник

X

Xplwfcwef041 in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
David Dale
Ну нейросеть так-то по построению - каша; это её ожидаемое свойство 😄 А в чем проблема отрицательных весов?
Да вроди уже нет проблем)
Он и с отрицательными весами работает отлично.
источник

L

Leonid in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
коллеги, все с Новым Годом!
совет нужен..
есть 7 млн предложений  (5-10 слов в каждом, но плюс в том, что все слова несут смысловую нагрузку - нет стоп слов) половина размечена на 10 классов. Проблема в том, что очень много уникальных слов получается. Т.е. тупо запихнуть в какой-нибудь векторайзер не вариант - матрица получается 7 млн х 40.000
Чем лучше подготовить данные для обучения?  И вообще какую стратегию тут применить?
источник

DD

David Dale in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Leonid
коллеги, все с Новым Годом!
совет нужен..
есть 7 млн предложений  (5-10 слов в каждом, но плюс в том, что все слова несут смысловую нагрузку - нет стоп слов) половина размечена на 10 классов. Проблема в том, что очень много уникальных слов получается. Т.е. тупо запихнуть в какой-нибудь векторайзер не вариант - матрица получается 7 млн х 40.000
Чем лучше подготовить данные для обучения?  И вообще какую стратегию тут применить?
Можно опять таки в векторайзер, но батчами, чтобы в память влазило.
Можно слова через готовый fasttext пропустить и потом векторы усреднить в рамках одного текста (или как-то хитрее агрегировать), тогда размерность сильно меньше будет.
источник

I

Ingvar in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Leonid
коллеги, все с Новым Годом!
совет нужен..
есть 7 млн предложений  (5-10 слов в каждом, но плюс в том, что все слова несут смысловую нагрузку - нет стоп слов) половина размечена на 10 классов. Проблема в том, что очень много уникальных слов получается. Т.е. тупо запихнуть в какой-нибудь векторайзер не вариант - матрица получается 7 млн х 40.000
Чем лучше подготовить данные для обучения?  И вообще какую стратегию тут применить?
Смотря что с ними далее нужно делать. BPE - первое, что в голову идет.
источник

L

Leonid in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ingvar
Смотря что с ними далее нужно делать. BPE - первое, что в голову идет.
по тем же 10 классам раскидать..
источник

L

Leonid in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ingvar
Смотря что с ними далее нужно делать. BPE - первое, что в голову идет.
а BPE это что? где почитать?
на вскидку не ищет ничего..
источник

I

Ingvar in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Byte pair encoding
источник