«Вы — ChatGPT»: утечка системного сообщения раскрывает внутреннюю работу GPT-5
Что случилось? В эти выходные на Reddit и GitHub просочилась информация о предполагаемой системе GPT-5 . В ней раскрываются точные правила, заданные ChatGPT для взаимодействия с пользователями и выполнения различных задач.
- Пользователь Reddit утверждает, что обнаружил «дословную системную подсказку и информацию об инструментах» для GPT-5 , новейшей большой языковой модели (LLM) OpenAI.
- Полная версия запроса также появилась на GitHub днем ранее.
- Подсказка начинается со слов: «Вы — ChatGPT, большая языковая модель, основанная на модели GPT-5 и обученная OpenAI».
- Затем указывается предельный срок сдачи экзамена GPT-5, который, как утверждается, приходится на 2024–2026 годы.
- Личность указана как «v2», что справедливо подразумевает, что ChatGPT претерпел некоторые изменения личности с течением времени.
- Команды дают много информации о том, какие типы ответов теперь разрешено предлагать ChatGPT, и показывают, как компания пытается формировать
- Одно из заметных изменений предписывает GPT-5 не говорить следующее: «Хотите ли вы, чтобы я; хотите, чтобы я это сделал; хотите ли вы, чтобы я; если вы хотите, я могу; дайте мне знать, если вы хотите, чтобы я; должен ли я; должен ли я».
- Хотя оба источника утверждают, что системная подсказка на 100% реальна, пользователи Hacker News подвергают ее сомнению и воспроизводимость, отмечая, что возможны подсказки-приманки/канареечные подсказки.
Это важно, потому что: если текст настоящий, он дает редкий взгляд на то, как управляется ChatGPT; если же он поддельный, он показывает, как легко создавать «утечки», которые выглядят правдоподобно.
- Система подсказывает тон формы, правила безопасного поведения и использование инструментов.
- Утечки могут дать информацию о попытках джейлбрейка, но прежде всего они дают нам представление о внутренней работе LLM.
- Эти изменения могут значительно упростить использование GPT-5. Также упоминаются инструменты автоматизации, такие как создание ежедневных задач.
- Однако в материалах запуска OpenAI особое внимание уделяется стеку маршрутизаторов/логики GPT-5, а не какому-либо одному статическому скрипту, что подрывает идею единого канонического запроса.
Почему меня это должно волновать? Знание точного содержания системного запроса даёт пользователю много информации о том, какие данные использует GPT-5 и как она на них реагирует.
- По слухам, системное приглашение демонстрирует некоторые изменения, внесенные OpenAI, которые влияют на способ взаимодействия GPT-5.
- Сюда входят: «Если следующий шаг очевиден, сделайте его» и «Задайте максимум один необходимый уточняющий вопрос в начале, а не в конце».
- Также существуют подробные рекомендации по созданию изображений, включая изображения себя.
- Подлинность не доказана; суть может быть частичной, устаревшей или намеренно искаженной.
Итак, что дальше? Документация и системные файлы OpenAI будут обновляться.
- Даже если эта системная подсказка реальна, есть вероятность, что она меняется с каждой версией модели и, возможно, с каждым небольшим обновлением, отправляемым в LLM.
- OpenAI не публиковала и не подтверждала никаких системных подсказок; официальные материалы GPT-5 описывают маршрутизируемую систему, а не один статический скрипт.