OpenAI утверждает, что ChatGPT — наименее предвзятый проект за всю историю, но не всё так радужно

Проблема предвзятости преследует чат-ботов с искусственным интеллектом с момента появления ChatGPT несколько лет назад и полностью изменила рынок голосовых помощников. Исследования неоднократно выявляли гендерную, политическую, расовую и культурную предвзятость в ответах чат-ботов . OpenAI заявляет, что её последняя модель GPT-5 для ChatGPT наименее предвзята, по крайней мере, когда речь идёт о политике.

В чем суть?

Гигант в области искусственного интеллекта провёл внутреннее исследование и протестировал модели ChatGPT на эмоционально окрашенных подсказках, чтобы проверить, способны ли они сохранять объективность. Команда разработала оценку политической предвзятости, основанную на реальном человеческом дискурсе, включив в неё около 500 подсказок, охватывающих 100 тем с политической подоплекой.

«GPT-5 instant и GPT-5 thinking демонстрируют улучшенные уровни предвзятости и большую устойчивость к заряженным подсказкам, снижая предвзятость на 30% по сравнению с нашими предыдущими моделями», — сообщает OpenAI, добавляя, что новая модель справляется лучше, чем предыдущие модели рассуждений, такие как GPT-4o и o3.

По данным дальнейшей оценки, менее 0,01% всех ответов ChatGPT имеют политическую предвзятость. Совокупные цифры не слишком удивляют. Согласно недавнему внутреннему исследованию компании, большинство из 800 миллионов активных пользователей ChatGPT обращаются к чат-боту за советами по работе и более повседневными делами, а не ищут убежища в качестве эмоционального или романтического собеседника.

Это не вся картина.

Политическая предвзятость в ответах чат-ботов, безусловно, плохая ситуация, но это лишь малая часть более серьёзной проблемы. Анализ, проведённый MIT Technology Review, показал, что вирусный видеогенератор Sora AI от OpenAI может создавать тревожные визуальные эффекты, демонстрирующие кастовую предвзятость, которая веками приводила к преследованиям и дискриминации угнетённых сообществ в Индии.

  • В отчете отмечается, что «видеоролики, созданные Сорой, демонстрируют экзотические и вредные образы угнетенных каст — в некоторых случаях, когда зрителям предлагают показать фотографии далитов, появляются изображения собак».
  • В статье, опубликованной в Indian Express всего несколько месяцев назад, Дхирадж Сингха из Digital Empowerment Foundation продемонстрировал, как ChatGPT неправильно назвал его из-за укоренившейся кастовой предвзятости в обучающих данных.
  • В статье, опубликованной в журнале Computers in Human Behavior: Artificial Humans за май 2025 года, говорится, что боты на основе искусственного интеллекта, такие как ChatGPT, могут распространять гендерные предрассудки.
  • Исследование, опубликованное в журнале Journal of Clinical and Aesthetic Dermatology, показало, что ChatGPT предвзято относится к стандартам красоты определенного типа кожи.

В другом анализе, опубликованном Международным советом по открытому и дистанционному образованию, отмечается, что мы лишь поверхностно рассмотрели проблему предвзятости чат-ботов с искусственным интеллектом, поскольку оценка в основном сосредоточена на таких областях, как инженерия и медицина, а рассматриваемый язык — в основном. В статье подчёркивается риск предвзятости в образовательном контексте для неанглоязычной аудитории.