Gemini, ChatGPT и большинство других чат-ботов с искусственным интеллектом мыслят одинаково, и это плохо сказывается на человеческом творчестве.
Чат-боты с искусственным интеллектом призваны расширять ваши творческие возможности, а не незаметно их сужать. Но новые исследования показывают, что именно это может происходить, когда вы слишком сильно на них полагаетесь.
Исследование, опубликованное в журнале Engineering Applications of Artificial Intelligence, показывает, что ведущие модели, включая Gemini , GPT и Llama, часто оказываются в одной и той же концептуальной области при решении творческих задач. Сами по себе многие ответы кажутся оригинальными и полезными. Однако, если посмотреть на ситуацию в более широком контексте, выявляется другая закономерность. При обработке множества запросов и взаимодействии с различными пользователями результаты начинают сходиться.
Исследователи сравнили участников-людей с широким спектром моделей ИИ , используя стандартные тесты на креативность, такие как мозговой штурм новых способов использования повседневных предметов или составление списка несвязанных слов. В индивидуальном порядке ИИ показал себя хорошо. В группе же его идеи были гораздо менее разбросаны.
Разные боты, одинаковые схемы.
Команда не сосредотачивалась только на одной системе. Она протестировала более 20 моделей от разных компаний на более чем 100 участниках. Результаты оставались стабильными во всех тестах. Ответы ИИ показали более узкий диапазон, даже когда модели принадлежали к разным семействам.
При сопоставлении по признаку сходства ответы чат-ботов группировались близко друг к другу, в то время как ответы людей охватывали гораздо более широкий диапазон.
Та же закономерность наблюдалась и в других задачах. Независимо от того, генерировали ли модели идеи или несвязанные концепции, они опирались на знакомые структуры и повторяющиеся фразы.
Попытки увеличить разнообразие не принесли существенных результатов. Увеличение случайности немного помогло, но быстро снизило согласованность. Побуждение ИИ к большей изобретательности немного улучшило результаты, но не привело к значительному расширению диапазона.
Почему это важно для ваших идей
На первый взгляд, ИИ всё ещё может выглядеть впечатляюще. Многие ответы по оригинальности не уступают, а зачастую и превосходят среднестатистический ответ человека.
Проблема становится яснее при масштабировании. Когда множество людей используют одни и те же инструменты для мозгового штурма или написания текстов, они часто опираются на одни и те же базовые закономерности. Со временем это сужает диапазон идей, даже если каждая из них кажется разной в отрыве от других.
Частично ограничение обусловлено тем, чего этим системам не хватает. У них нет личного опыта, намерений или контекста. Это отсутствие может ограничивать степень расхождения их идей, независимо от того, как они формируются .
Есть и поведенческий аспект. Исследования показывают, что люди могут слишком сильно полагаться на подсказки ИИ, вместо того чтобы развивать собственное мышление. Этот сдвиг со временем может еще больше снизить разнообразие идей.
Что посмотреть дальше
Похоже, эта проблема не связана с каким-то одним продуктом. Она, по всей видимости, является общей чертой современных систем искусственного интеллекта. Даже модели, созданные разными компаниями, дают совпадающие результаты, что указывает на более глубокое ограничение в том, как эти инструменты генерируют идеи.
На данный момент ИИ лучше всего работает как отправная точка, а не как финишная линия. Используйте его, чтобы задать направление, а затем развивайте его самостоятельно. В противном случае вы на самом деле не думаете, а просто переосмысливаете те же идеи, что и все остальные.