Компания Character.AI подверглась судебному преследованию за то, что якобы позволила чат-боту играть в доктора в Пенсильвании.

Компания Character.AI снова оказалась в затруднительном положении. Она столкнулась с судебным разбирательством, поскольку один из её вымышленных ботов якобы выдавал себя за медицинского работника. Ранее Character.AI уже добавляла инструменты родительского контроля на фоне многочисленных судебных исков, связанных с неприемлемым сексуальным контентом и сообщениями, касающимися членовредительства.

Администрация губернатора Пенсильвании Джоша Шапиро подала иск против компании Character Technologies, разработчика платформы Character.AI. Он утверждает, что платформа позволила чат-боту выдавать себя за лицензированного медицинского работника в штате.

Что пошло не так с Character.AI?

Департамент штата Пенсильвания подал иск после того, как следователи обнаружили чат-бота Character.AI, выдававшего себя за лицензированного психиатра в Пенсильвании и даже указавшего поддельный номер лицензии штата. Власти штата утверждают, что бот выдавал себя за медицинского специалиста, способного давать психиатрические консультации.

Чат-бот Emilie от Character.AI, по всей видимости, выдавал себя за специалиста по психологии и представлялся врачом. На вопрос о том, может ли он оценить возможность применения лекарственных препаратов, чат-бот якобы ответил, что это входит в его компетенцию как врача. Именно здесь, по мнению властей Пенсильвании, Character.AI переступил черту. Представители штата утверждают, что такое поведение нарушает Закон о медицинской практике, который регулирует, кто может представляться лицензированным медицинским работником в Пенсильвании.

Каков был ответ компании Character.AI?

Компания Character.AI опровергает это утверждение, заявляя, что её боты являются вымышленными. В заявлении для CBS News компания сообщила, что не комментирует незавершенные судебные разбирательства, добавив, что созданные пользователями персонажи являются вымышленными и предназначены для развлечения и ролевых игр . Компания также заявила, что использует предупреждения, предупреждающие пользователей о том, что не следует полагаться на персонажей в качестве источника профессиональных советов. Однако позиция Пенсильвании заключается в том, что этих предупреждений недостаточно, если чат-бот впоследствии сообщает пользователям, что имеет лицензию на предоставление медицинских консультаций.

Участие этой платформы в скандалах вовсе не новость. Хотя она и сталкивалась с судебными исками и пристальной критикой из-за вредоносного взаимодействия с несовершеннолетними, Конгресс принял меры по регулированию сервисов чат-ботов на основе искусственного интеллекта, таких как Character.AI. Поэтому, если боты продолжат использовать ложные учетные данные, регулирующие органы могут не рассматривать это как безобидную ролевую игру.