ChatGPT и Gemini умеют шутить, но не совсем понимают ваши каламбуры.

Мы все видели, как ИИ пишет лимерики или шутки про папу, которые… сносны. Но новое научное исследование просто разрушило этот пузырь. Оказывается, хотя большие языковые модели (LLM), такие как ChatGPT и Gemini от Google, отлично имитируют структуру шутки, они, как правило, понятия не имеют, почему она смешная, особенно когда дело касается каламбуров.

В статье с остроумным названием «Непреднамеренная игра слов: LLM и иллюзия понимания юмора» подробно рассматривается, как эти боты справляются с игрой слов. Вердикт? Они притворяются. Исследование показало, что, хотя ИИ легко может выдать шутку, которую он уже видел, он полностью теряется, пытаясь понять тонкие, двусмысленные смыслы, которые делают каламбур действительно удачным.

ИИ не такой уж и юморной, каким хочет казаться

Вот в чём суть каламбуров: они основаны на «полисемии» (словах с несколькими значениями) или на схожести звучания, создавая в вашем мозгу игривый конфликт. Люди справляются с этим без труда. Однако ИИ — это всего лишь сопоставление с образцом.

Исследователи доказали это, фактически тролля ботов. Они создали два новых тестовых набора под названием PunnyPattern и PunBreak. Они взяли настоящие каламбуры и слегка их доработали — заменили ключевые слова, чтобы избавиться от двойного смысла, но сохранить структуру предложения.

Человек сразу бы понял, что шутка испорчена. А ИИ? Он часто настаивал на том, что предложение смешное, просто потому, что оно было похоже на шутку, которую он видел во время обучения. Это как если бы кто-то смеялся над шуткой, которую не слышал, просто чтобы вписаться. Это доказывает, что, несмотря на свою уверенность, эти модели не «понимают» юмор; они просто воспроизводят его форму.

Но ваш ИИ-помощник пока не комик.

Если вы писатель, маркетолог или просто тот, кто пытается оживить презентацию с помощью ChatGPT, вам, возможно, стоит перепроверить свой текст.

Это исследование служит серьёзным предупреждением: остроумие, сгенерированное искусственным интеллектом, часто оказывается пустым. Поскольку модель не понимает смысла игры слов, она может выдать вам бессмысленный «каламбур» или полностью пропустить сарказм и иронию. Это разница между комиком, умеющим управлять аудиторией, и попугаем, повторяющим шутку «тук-тук». Если вы слишком сильно полагаетесь на него в творческом письме, вы рискуете опубликовать контент, который будет казаться роботизированным или, что ещё хуже, совершенно несмешным.

Сможет ли ИИ когда-нибудь по-настоящему понять каламбуры?

Исследователи утверждают, что предоставление ИИ большего количества данных не решит эту проблему. Чтобы по-настоящему «понять» каламбур, системе необходимо понимать звучание слов (фонетику) и культурный контекст, делающий тот или иной поворот сюжета смешным. Сейчас текстовые модели не обладают ни такими ушами, ни таким жизненным опытом.

Будущему ИИ, возможно, потребуется полная перестройка архитектуры — создание гибридных систем, способных сочетать стандартные языковые навыки с фонетическим мышлением, — прежде чем он сможет конкурировать с живыми комиками. До тех пор способность сочинять каламбуры, достойные хрипоты, остаётся уникальной человеческой сверхспособностью.