В иске против ChatGPT утверждается, что компания консультировала стрелка о том, как и куда наносить удары.

Генеральный прокурор Флориды начал уголовное расследование в отношении компании OpenAI, утверждая, что ChatGPT участвовала в планировании массовой стрельбы в Университете штата Флорида, в результате которой в прошлом году погибли два человека.

Как сообщает The Washington Post , генеральный прокурор Джеймс Утмайер сделал это заявление на пресс-конференции во вторник, утверждая, что чат-бот давал тактические советы предполагаемому стрелку. «Чат-бот консультировал стрелка о том, какое оружие использовать, какие боеприпасы подходят к какому оружию, и будет ли оружие полезно на короткой дистанции», — сказал Утмайер.

Он также не стал скрывать последствий: «Если бы по ту сторону экрана находился человек, мы бы предъявили ему обвинение в убийстве». Его ведомство также направило в OpenAI повестки с требованием объяснить политику компании в отношении обработки пользовательских разговоров, содержащих угрозы насилия.

Несет ли OpenAI ответственность за то, как пользователи используют его данные?

Компания OpenAI решительно выступила против. Пресс-секретарь Кейт Уотерс заявила: «Массовая стрельба в Университете штата Флорида в прошлом году была трагедией, но ChatGPT не несет ответственности за это ужасное преступление».

Компания утверждает, что ChatGPT предоставлял достоверные ответы на вопросы, которые можно найти где угодно в интернете, и что он не поощрял и не пропагандировал незаконную деятельность.

Это только начало?

Это расследование является частью растущей обеспокоенности по поводу чат-ботов на основе искусственного интеллекта . Компания OpenAI уже находится под пристальным вниманием после отдельного случая массовой стрельбы в Канаде и многочисленных судебных исков от семей, утверждающих, что ChatGPT способствовал самоубийству близких.

Эксперты по искусственному интеллекту отмечают, что механизмы защиты чат-ботов несовершенны. Как выразился профессор Университета Карнеги-Меллона Рамайя Кришнан: «Эти механизмы защиты не на 100 процентов эффективны».

Вопрос о том, может ли компания OpenAI быть привлечена к уголовной ответственности, должен быть решен судом, но никто не может отрицать, что эти чат-боты с искусственным интеллектом могут иметь серьезные последствия для психического здоровья человека и должны использоваться с большой осторожностью.