🤔 Ученые из Джорджтаунского университета
обеспокоены возможностями ИИ для генерирования дезинформирующего контента.
Они обучили GPT-3 на 413 млрд токенов, включающих слова из «Википедии» и датасета Common Crawl. Затем исследователи пропустили через алгоритм пять постов из Twitter-страницы университета и заставили его продолжить синтезирование публикаций.
💬 По словам авторов, им потребовался небольшой датасет и 30 минут, чтобы сделать из GPT «писателя New York Times». Это вызывает беспокойство, так как более 80% людей могут не найти разницу между текстами, написанными человеком и машиной, добавили они.
#исследование