Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 February 05

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Ребят, как идеи организовываете?
Notion, roam research
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Это как trello?
Не, это как evernote, только с человеческим лицом
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ivan
Не, это как evernote, только с человеческим лицом
Опа, то, что нужно
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Опа, то, что нужно
+формулы можно вставлять
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
2) эмбеддинги и позициональные вектора просто суммируются, или с какими-то весовыми коэффициентами? как разрешаются коллизии, при которых слово А в позиции X имеет такой же вектор, как слово B в позиции Y?
Просто суммируются
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Я ещё сейчас нашел zettelkasten
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Я не очень вникал. Мне надо было чтоб под мак/винду и айос были приличные полнофункциональные клиенты
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
А, и приличная веб-версия
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Вот нашёл obsidian md
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
4) значения на голове трансформера (т.е. предсказанный контекст) являются чистыми эмбеддингами, без позиционального кодирования?
Позиция закладывается в самом начале при суммировании эмбеддинга токена и позишена и все
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Cookie Thief
Просто суммируются
а как тогда разрешаются коллизии? ведь наверняка сумма позиции и эмбеддинга неуникальна, т.к. той же сумме будет соответствовать другое слово, но в другой позиции

и нужно ли как-то предварительно нормализовать координаты позиционного и эмбеддингового векторов?
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
а как тогда разрешаются коллизии? ведь наверняка сумма позиции и эмбеддинга неуникальна, т.к. той же сумме будет соответствовать другое слово, но в другой позиции

и нужно ли как-то предварительно нормализовать координаты позиционного и эмбеддингового векторов?
Теоретически возможно, хотя маловероятно. Но а так всем пофиг)
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
а, типа "нейронка сама выучит"? 🙂
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ну типо да
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
а, типа "нейронка сама выучит"? 🙂
Проверяли различные виды эмбедингов, был ещё вариант самообучающихся, разницы особо не заметили
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Проверяли различные виды эмбедингов, был ещё вариант самообучающихся, разницы особо не заметили
имеются в виду эмбеддинги позиции слова, а не самого слова?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
имеются в виду эмбеддинги позиции слова, а не самого слова?
Угусь
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
мне кажется, что выученные даже хуже должны быть из-за того, что выученные не будут так легко обобщаться на неизвестные ранее длины последовательностей, но это чисто догадка
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
мне кажется, что выученные даже хуже должны быть из-за того, что выученные не будут так легко обобщаться на неизвестные ранее длины последовательностей, но это чисто догадка
Дак трансформер ванильный итак не работает с текстами длиннее 512 токенов
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну вроде в архитектуре самой нет никаких ограничений?
источник