Интернет потрясен GPT-3 — новой версией модели языкового прогнозирования с открытым исходным кодом. OpenAI представили GPT-3 в мае этого года, однако отдельные разработчики начали получать доступ к бета-версии только на прошлой неделе. Что же такого умеет модель и отчего представители IT сообщества по всему миру обеспокоены, что их вот-вот заменят роботы?
На данный момент GPT-3 — самый мощный алгоритм генерации текстов в мире.
Модель обучена на 570 ГБ текстовой информации, включая всю википедию, тексты веб-страниц и данные открытой библиотеки Common Crawl. В GPT-3 использовали 175 миллиардов параметров, тогда как в ее предшественнике GPT-2 — всего 1.5 миллиарда.
В итоге GPT-3 способна работать с текстами на уровне, практически неотличимом от человеческого: отвечать на вопросы в чатах, писать новости и музыкальные табулатуры, переводить и даже программировать. Для этого ей нужно скормить всего 10–100 примеров.
Так, разработчик Sharif Shameem обучил алгоритм верстать компоненты интерфейсов на JSX из текстового запроса на английском. Например: «Кнопка, которая выглядит как арбуз».
http://amp.gs/wq3jДизайнер Jordan Singer написал плагин для Figma, выдающий готовый макет из текстового запроса. GPT-3 генерирует JSON-данные по текстовому описанию приложения и компонентов, а затем переводит их на макет Figma, подтягивая картинки и иконки из публичных источников:
http://amp.gs/wq38Предприниматель Elliot Turner также обратил внимание на возможность модели перефразировать грубые комментарии в вежливые:
http://amp.gs/wq3TСейчас OpenAI хотят, чтобы сторонние разработчики исследовали возможности GPT-3, в будущем же планируют превратить его в коммерческий продукт, предлагая компаниям платную подписку через облако.