«Вы — ChatGPT»: утечка системного сообщения раскрывает внутреннюю работу GPT-5

Что случилось? В эти выходные на Reddit и GitHub просочилась информация о предполагаемой системе GPT-5 . В ней раскрываются точные правила, заданные ChatGPT для взаимодействия с пользователями и выполнения различных задач.

  • Пользователь Reddit утверждает, что обнаружил «дословную системную подсказку и информацию об инструментах» для GPT-5 , новейшей большой языковой модели (LLM) OpenAI.
  • Полная версия запроса также появилась на GitHub днем ранее.
  • Подсказка начинается со слов: «Вы — ChatGPT, большая языковая модель, основанная на модели GPT-5 и обученная OpenAI».
  • Затем указывается предельный срок сдачи экзамена GPT-5, который, как утверждается, приходится на 2024–2026 годы.
  • Личность указана как «v2», что справедливо подразумевает, что ChatGPT претерпел некоторые изменения личности с течением времени.
  • Команды дают много информации о том, какие типы ответов теперь разрешено предлагать ChatGPT, и показывают, как компания пытается формировать
  • Одно из заметных изменений предписывает GPT-5 не говорить следующее: «Хотите ли вы, чтобы я; хотите, чтобы я это сделал; хотите ли вы, чтобы я; если вы хотите, я могу; дайте мне знать, если вы хотите, чтобы я; должен ли я; должен ли я».
  • Хотя оба источника утверждают, что системная подсказка на 100% реальна, пользователи Hacker News подвергают ее сомнению и воспроизводимость, отмечая, что возможны подсказки-приманки/канареечные подсказки.

Это важно, потому что: если текст настоящий, он дает редкий взгляд на то, как управляется ChatGPT; если же он поддельный, он показывает, как легко создавать «утечки», которые выглядят правдоподобно.

  • Система подсказывает тон формы, правила безопасного поведения и использование инструментов.
  • Утечки могут дать информацию о попытках джейлбрейка, но прежде всего они дают нам представление о внутренней работе LLM.
  • Эти изменения могут значительно упростить использование GPT-5. Также упоминаются инструменты автоматизации, такие как создание ежедневных задач.
  • Однако в материалах запуска OpenAI особое внимание уделяется стеку маршрутизаторов/логики GPT-5, а не какому-либо одному статическому скрипту, что подрывает идею единого канонического запроса.

Почему меня это должно волновать? Знание точного содержания системного запроса даёт пользователю много информации о том, какие данные использует GPT-5 и как она на них реагирует.

  • По слухам, системное приглашение демонстрирует некоторые изменения, внесенные OpenAI, которые влияют на способ взаимодействия GPT-5.
  • Сюда входят: «Если следующий шаг очевиден, сделайте его» и «Задайте максимум один необходимый уточняющий вопрос в начале, а не в конце».
  • Также существуют подробные рекомендации по созданию изображений, включая изображения себя.
  • Подлинность не доказана; суть может быть частичной, устаревшей или намеренно искаженной.

Итак, что дальше? Документация и системные файлы OpenAI будут обновляться.

  • Даже если эта системная подсказка реальна, есть вероятность, что она меняется с каждой версией модели и, возможно, с каждым небольшим обновлением, отправляемым в LLM.
  • OpenAI не публиковала и не подтверждала никаких системных подсказок; официальные материалы GPT-5 описывают маршрутизируемую систему, а не один статический скрипт.