Size: a a a

2020 May 29

AV

Alexander Vershilov in haskell_blah
а
источник

AA

A64m AL256m qn<co... in haskell_blah
вбил в твиттеропоиск гпт-3

> BTW do u understand why prompts in the GPT paper help anything? LM is just a density estumator. It needs context and output space to match what it saw during training. If there's no match and no finetuning is done  how could this work?
источник

AA

A64m AL256m qn<co... in haskell_blah
> I keep going back and forth between being impressed and disappointed. It works impressively well where I didn’t expect it, and then it makes simple mistakes no human would make. It teaches me more about what is fundamentally human than about ML.
источник

AA

A64m AL256m qn<co... in haskell_blah
> I’m really grateful that someone is doing this type of research. While I don’t believe that this is the way to build “intelligence” as most would define it, it teaches us so much about what it means to be human.
источник

AA

A64m AL256m qn<co... in haskell_blah
ну если считать, что "быть человеком" это "делать то, что не может ии", то тут конечно апдейты человечности постоянные
источник

AA

A64m AL256m qn<co... in haskell_blah
> Some argue that ML is just “pattern matching” and I think that’s true. It can’t reason. However, I think we are starting to realize that a vast majority of human language is extremely predictable more pattern matching than reasoning. Complex Reasoning may be the minority.
источник

AA

A64m AL256m qn<co... in haskell_blah
> This is also related to some perspectives around language that argue some of its function is a narrative one - justifying our beliefs to ourselves and others and post-rationalizing - as opposed to transmitting useful information. Language may be a lot “emptier” than we thought.
источник

DF

Dollar Føølish in haskell_blah
Клапауций а вы как относитесь к нейронкам?
источник

DF

Dollar Føølish in haskell_blah
Хорошо или плохо?
источник

DF

Dollar Føølish in haskell_blah
Ко всем этим дипфейк и гпт2
источник

AA

A64m AL256m qn<co... in haskell_blah
ХОРОШО
источник

AA

A64m AL256m qn<co... in haskell_blah
> The math in the paper is one example - a human who understands the “rules” can generalize to arbitrary numbers.

не научился складывать и вычитать числа больше трехзначных читая то что плюсуют на реддите - не человек
источник

AA

A64m AL256m qn<co... in haskell_blah
пока убогие мучители видеокарт все еще судорожно цепляются за наблюдаемые отличия результатов "паттерн-матчинга" и "ризонинга"
философы давно уже придумали воображаемую машину, которая так хорошо паттерн-матчит что не отличить, но не думает, потому что философ не хочет
источник

AA

A64m AL256m qn<co... in haskell_blah
> For me this is the first result that is deeply unintuitive, in terms of it's capability to use the prompt within the same forward pass almost as if it was training data from a previous pass.
источник

AA

A64m AL256m qn<co... in haskell_blah
> What's the record for number of authors on a paper?

сразу видно что небось только какие-нибудь цс пейпера видел
источник

AA

A64m AL256m qn<co... in haskell_blah
> Few shot learning is where you learn the operations required to quickly learn unexpected tasks within a broad domain.
> This is too much contaminated with implicit associations and knowledge; needing persistent access to a lossily compressed but massive database
источник

AA

A64m AL256m qn<co... in haskell_blah
с одной стороны хочется почитать комментарии на хакерньюс, с другой стороны, я об этом пожалею конечно
источник

AA

A64m AL256m qn<co... in haskell_blah
> My favourite things about #GPT3 is the idea that you can use it as the world's first 12 million dollar mostly-accurate two-digit calculator.
источник

A

Andrey in haskell_blah
источник

A

Andrey in haskell_blah
A64m AL256m qn I0
с одной стороны хочется почитать комментарии на хакерньюс, с другой стороны, я об этом пожалею конечно
^
источник