Реклама в Telegram-каналах DzikPic и dev.by теперь дешевле. Узнать подробности 👨🏻‍💻
Support us

Возможно, ему просто хочется праздника: появилась теория, почему ChatGPT стал лениться

В конце ноября пользователи ChatGPT на базе GPT-4 заметили, что чат-бот стал отказываться отвечать на запросы или отвечать слишком кратко и упрощённо, креативность тоже пострадала. Разработчики признали проблему и сказали, что это не фича, но почему она возникла, не знают. Одна теория, хоть и не проверенная, появилась у ИИ-исследователей из числа юзеров — её назвали «гипотезой зимних каникул».

Оставить комментарий
Возможно, ему просто хочется праздника: появилась теория, почему ChatGPT стал лениться

В конце ноября пользователи ChatGPT на базе GPT-4 заметили, что чат-бот стал отказываться отвечать на запросы или отвечать слишком кратко и упрощённо, креативность тоже пострадала. Разработчики признали проблему и сказали, что это не фича, но почему она возникла, не знают. Одна теория, хоть и не проверенная, появилась у ИИ-исследователей из числа юзеров — её назвали «гипотезой зимних каникул».

Кто-то из пользователей в шутку предположил, что большие языковые модели, подобно людям, могут симулировать сезонную депрессию. Другой высказал идею, что модели из обучающих данных сделали вывод, что в декабре люди расслабляются и откладывают большие проекты на будущий год — и подражают им.

Ещё одна догадка связана с текущей датой, которую бот получает в системной подсказке при запросе. На неё исследователей навело странное поведение моделей при обращении к ним, как к живым людям — например, если предложить им сделать глубокий вдох перед решением математической задачи или получить чаевые. Естественно, ни того, ни другого модель сделать не может, но отвечает почему-то качественнее. Также добиться хорошего ответа помогает давление на жалость — например, если прикинуться, что у вас нет пальцев.

Разработчик Роб Линч рассказал о своём эксперименте над GPT-4 Turbo, в рамках которого он создал две системные подсказки. Первая заставляла модель думать, что сейчас май, а вторая — что декабрь. Оказалось, что модель в среднем давала более длинные ответы, когда считала, что отвечает на вопросы в мае — 4086 символов против 4298.

Впрочем, у других исследователей воспроизвести результаты Линча со статистической значимостью не получилось.

Grok Маска не отвечает на запросы потому что не позволяют «правила OpenAI»
Grok Маска не отвечает на запросы, потому что не позволяют «правила OpenAI»
По теме
Grok Маска не отвечает на запросы, потому что не позволяют «правила OpenAI»
«Давай сам»: ChatGPT совсем обленился и не хочет отвечать на пользовательские запросы
«Давай сам»: ChatGPT совсем обленился и не хочет отвечать на пользовательские запросы
По теме
«Давай сам»: ChatGPT совсем обленился и не хочет отвечать на пользовательские запросы
Новый рекламный формат в наших телеграм-каналах.

Купить 500 символов за $150

Читайте также
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
3 комментария
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.