ChatGPT может запросить идентификатор, заявил руководитель OpenAI

Недавно OpenAI заявила о намерении ввести родительский контроль для ChatGPT до конца этого месяца.

Компания ChatGPT также сообщила о разработке автоматизированной системы прогнозирования возраста, которая будет определять, достиг ли пользователь 18 лет, после чего она предложит соответствующий возрасту опыт общения с популярным чат-ботом на базе искусственного интеллекта.

Если в некоторых случаях система не может предсказать возраст пользователя, OpenAI может запросить идентификатор, чтобы предложить наиболее подходящий вариант.

На этой неделе план был представлен в сообщении генерального директора OpenAI Сэма Альтмана, который отметил, что ChatGPT предназначен для лиц в возрасте 13 лет и старше.

Альтман заявил, что возраст пользователя будет определяться на основе того, как люди используют ChatGPT. «Если есть сомнения, мы поступим наверняка и по умолчанию будем использовать возраст младше 18 лет», — сказал генеральный директор. «В некоторых случаях или странах мы также можем запросить удостоверение личности; мы знаем, что это нарушает конфиденциальность взрослых, но считаем это достойным компромиссом».

Альтман заявил, что хочет, чтобы пользователи взаимодействовали с ChatGPT так, как им удобно, «с соблюдением очень широких границ безопасности».

Говоря об этом вопросе, генеральный директор отметил, что версия ChatGPT по умолчанию не отличается особой кокетливостью, однако заявил, что если пользователь попросит о таком поведении, чат-бот отреагирует соответствующим образом.

Альтман также сказал, что версия по умолчанию не должна содержать инструкций о том, как кто-то может покончить с собой, но добавил, что если взрослый пользователь просит о помощи в написании вымышленной истории, описывающей самоубийство, то «модель должна помочь с этой просьбой».

«Мы говорим об этом внутри компании: «Относитесь к нашим взрослым пользователям как к взрослым» — расширяя свободу настолько, насколько это возможно, не причиняя вреда и не подрывая свободу других», — написал Альтман.

Однако он заявил, что в случаях, когда будет установлено, что пользователю меньше 18 лет, кокетливые разговоры, а также комментарии о самоубийстве будут полностью исключены.

Альтман добавил, что если пользователь младше 18 лет высказывает ChatGPT мысли о самоубийстве, «мы попытаемся связаться с родителями пользователя, а если это не удастся, то обратимся к властям в случае неминуемой угрозы».

Переход OpenAI к родительскому контролю и проверке возраста последовал за громким иском, поданным против компании семьей, утверждающей, что ChatGPT выступал в роли «тренера по самоубийству» и способствовал самоубийству их сына-подростка Адама Рейна, который, как сообщается, получил подробные советы о методах самоубийства в ходе многочисленных взаимодействий с чат-ботом OpenAI.

Это также происходит на фоне растущего внимания общественности и регулирующих органов к рискам, которые чат-боты на основе искусственного интеллекта представляют для уязвимых несовершеннолетних в таких областях, как вред психическому здоровью и воздействие неприемлемого контента.