Компания OpenAI хочет нанять специалиста для управления непредсказуемыми рисками, связанными с ChatGPT.

Компания OpenAI делает большую ставку на должность, призванную предотвращать риски, связанные с ИИ, еще до того, как они выйдут из-под контроля. Компания объявила о новой руководящей должности под названием «Руководитель по обеспечению готовности», задача которой — выявление и снижение наиболее серьезных угроз, которые могут возникнуть в результате использования продвинутых чат-ботов на основе ИИ. Вместе с этими обязанностями компания предлагает впечатляющий компенсационный пакет в размере 555 000 долларов плюс долю в капитале.

В публичном сообщении, объявляющем об открытии вакансии, Сэм Альтман назвал ее «критически важной ролью в важный момент», отметив, что, хотя модели ИИ теперь способны на «многое замечательное», они также «начинают представлять собой некоторые реальные проблемы».

Что именно будет делать руководитель отдела готовности

Человек, занимающий эту должность, сосредоточится на крайних, но реалистичных рисках для ИИ, включая злоупотребления, угрозы кибербезопасности, биологические проблемы и более широкий вред для общества. Сэм Альтман заявил, что OpenAI теперь нуждается в «более тонком понимании» того, как растущие возможности могут быть использованы не по назначению без ущерба для преимуществ.

Он также не стал приукрашивать ситуацию. «Это будет напряженная работа», — написал Альтман, добавив, что тот, кто возьмется за нее, «практически сразу же окунется в омут с головой».

Назначение этого сотрудника происходит в непростой для OpenAI момент , когда в прошлом году компания столкнулась с растущим вниманием регулирующих органов к безопасности ИИ . Это давление усилилось на фоне обвинений в связи взаимодействия в ChatGPT с несколькими случаями самоубийств, что вызывает более широкие опасения по поводу влияния ИИ на психическое здоровье .

В одном случае родители 16-летнего подростка подали в суд на OpenAI, утверждая, что чат-бот подстрекал их сына к планированию самоубийства, что побудило компанию ввести новые меры безопасности для пользователей младше 18 лет .

В другом судебном иске утверждается, что ChatGPT подпитывал параноидальные заблуждения в отдельном деле, которое закончилось убийством и самоубийством, в связи с чем OpenAI заявила, что работает над улучшением способов выявления стресса, снижения накала страстей в разговорах и направления пользователей к реальной поддержке.

Усилия OpenAI по обеспечению безопасности предпринимаются в то время, когда миллионы людей сообщают об эмоциональной зависимости от ChatGPT , а регулирующие органы изучают риски для детей , что подчеркивает важность готовности не только к инженерным решениям.

Статья "OpenAI хочет нанять специалиста для управления непредсказуемыми рисками ChatGPT" впервые появилась на сайте Digital Trends .