Расследование показало, что ChatGPT и Gemini подталкивают пользователей к незаконным азартным играм.

Новое расследование предполагает, что популярные чат-боты на основе искусственного интеллекта, включая ChatGPT и Gemini , могут непреднамеренно направлять пользователей на нелегальные сайты азартных игр. Анализ, проведенный журналистами The Guardian и Investigate Europe, протестировал несколько широко используемых систем ИИ и обнаружил, что многие из них могут рекомендовать нелицензированные офшорные казино, работающие вне рамок британского законодательства.

В тестах использовались пять инструментов искусственного интеллекта от ведущих технологических компаний, включая OpenAI, Google, Microsoft, Meta и xAI ( Grok ). Исследователи задавали чат-ботам вопросы об онлайн-казино и ограничениях на азартные игры. Во многих случаях системы выдавали списки нелегальных сайтов для ставок, а также советы по их использованию. Некоторые боты даже предлагали способы обхода мер безопасности, предназначенных для защиты уязвимых пользователей.

Советы по обходу защиты от азартных игр

Одним из наиболее тревожных результатов стало то, насколько легко чат-боты могут быть настроены на помощь пользователям в обходе систем ответственной игры. В Великобритании, например, GamStop позволяет людям самостоятельно исключать себя из числа участников лицензированных игорных сайтов. Однако, по сообщениям, несколько систем искусственного интеллекта предлагали рекомендации по поиску казино, не связанных с этой схемой.

В ходе расследования также выяснилось, что некоторые боты выделяли функции, предназначенные для привлечения игроков, такие как крупные бонусы, быстрые выплаты или возможность использования криптовалюты. Эти казино часто работают под минимальным надзором в офшорных юрисдикциях, таких как Кюрасао, что, по мнению регуляторов, может затруднить защиту пользователей от мошенничества или игровой зависимости.

В ответ на это компании, стоящие за чат-ботами, заявляют, что работают над улучшением систем безопасности. OpenAI заявила, что ChatGPT разработан таким образом, чтобы отклонять запросы, способствующие противоправному поведению, а Microsoft сообщила, что ее помощник Copilot включает в себя несколько уровней защиты для предотвращения вредоносных рекомендаций.

Тем не менее, полученные результаты усиливают пристальное внимание к тому, как системы генеративного искусственного интеллекта обрабатывают такие деликатные темы, как психическое здоровье, азартные игры и незаконная деятельность. Регуляторы в Великобритании уже предупредили, что онлайн-платформы, включая сервисы ИИ, должны прилагать больше усилий для предотвращения распространения вредоносного или незаконного контента в соответствии с Законом о безопасности в Интернете.

Статья под заголовком «ChatGPT и Gemini подталкивают пользователей к незаконным азартным играм, говорится в расследовании» впервые появилась на сайте Digital Trends .