Ребят, подскажите, а как можно сделать так, чтобы по оглавлению программа посмотрела книгу, а потом в один массив на питон записала тему главы (название), а в другой массив текст , который в этой главе ?
Ребят, подскажите, а как можно сделать так, чтобы по оглавлению программа посмотрела книгу, а потом в один массив на питон записала тему главы (название), а в другой массив текст , который в этой главе ?
Поиск по тексту с параметризованными регулярками. Всё закрывается стандартной библиотекой re
Всмысле сберовская модель на 760 миллионов параметров слабее , чем английская на 175 миллиардов параметров ?
Так это ж хорошо, что модель маленькая. Можно на ноуте или дешёвом серваке её запускать и даже дообучать для собственных задач) А гпт-3 дообучить нереально без суперкомпьютера.
Так это ж хорошо, что модель маленькая. Можно на ноуте или дешёвом серваке её запускать и даже дообучать для собственных задач) А гпт-3 дообучить нереально без суперкомпьютера.
Быстрый гуглинг "distilled gpt3" и "compressed gpt3" результатов не дал, но может быть можно поискать повнимательнее. А вот gpt2 вроде бы довольно успешно дистиллировали, на 🤗 есть distilgpt2. Хотя, конечно, в целом эффективно сжимать языковые модели человечество только ещё учится.