OpenAI не нашла свидетельств злоупотребления моделью для генерирования текстов GPT-2, поэтому опубликовала полную её версию — частично она была выпущена ранее в этом году, сообщает Engadget.
В феврале OpenAI анонсировала алгоритм, который умеет синтезировать фейковые новости на основе небольших исходных фрагментов настолько качественно, что их якобы не отличить от написанных человеком. Тогда разработчики решили выпустить лишь ограниченную версию модели из страха, что её могут использовать в недобрых целях, например для массового распространения спама или дезинформации. Но так как в жизни опасения (пока) не подтвердились, OpenAI опубликовала алгоритм на 1,5 млрд параметров целиком.
Модель, обученная на 8 млн веб-страниц, предназначена для ответов на вопросы, а также резюмирования и перевода текстов. Она должна помочь исследователям в области искусственного интеллекта создавать более качественные технологии распознавания фейков и синтеза текстов.
Исходный код доступен на GitHub, опробовать алгоритм можно здесь.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.