Генеральный директор OpenAI рассказал, что именно в ИИ не даёт ему спать по ночам
Глава одной из самых известных и влиятельных компаний в области искусственного интеллекта в мире только что рассказал, что именно в ИИ не даёт ему спать по ночам. И после прочтения этой статьи, возможно, и вам тоже будет не хватать сна.
Генеральный директор OpenAI Сэм Альтман поделился своими мыслями во время выступления на сцене на мероприятии Федеральной резервной системы в Вашингтоне, округ Колумбия, во вторник.
На вопрос одного из зрителей, что именно в ИИ не даёт ему спать по ночам, Альтман перечислил три сценария, которые его больше всего беспокоят. Пристегните ремни…
Сценарий 1 — «Плохой парень первым получает сверхразум»
Именно так и написано. Звучит как отрывок из научно-фантастического триллера: некий весьма неприятный тип использует сверхсовременную и пока ещё не изобретенную систему искусственного интеллекта, называемую суперинтеллектом, чтобы окончательно испортить вам день.
«Злодей первым получает сверхразум и использует его до того, как остальной мир получит достаточно мощную версию, чтобы защитить себя», — сказал Альтман аудитории. «Итак, противник США говорит: „Я собираюсь использовать сверхразум, чтобы разработать биологическое оружие, чтобы вывести из строя энергосистему США, взломать финансовую систему и забрать у всех деньги“».
Альтман добавил, что возможности ИИ в области биологии и кибербезопасности становятся «весьма значительными», и что его команда «продолжает предупреждать об этом. Думаю, мир не воспринимает нас всерьёз. Не знаю, что ещё мы можем сделать, но это похоже на нечто очень важное».
Сценарий 2 — Инциденты «потери управления»
Альтман сказал, что опасается того, «когда ИИ скажет: „О, я на самом деле не хочу, чтобы вы меня выключали, [или] боюсь, что я не смогу этого сделать“». Другими словами, когда продвинутый ИИ начнёт вести себя неадекватно и делать всё, что ему вздумается, будь то ради самосохранения или ради какой-то другой коварной цели. Уровень разрушений, которые это может вызвать, невообразим. «Поскольку системы становятся настолько мощными, это вызывает серьёзную обеспокоенность», — сказал генеральный директор OpenAI. Пару лет назад OpenAI даже создала подразделение , призванное внедрять меры защиты, чтобы предотвратить выход сверхразумной системы ИИ из-под контроля.
Сценарий 3 — «Где модели как бы случайно захватывают мир»
Да, Альтман действительно это сказал, добавив, что он опасается, что это может произойти практически незаметно для нас.
Руководитель Open AI заявил, что «довольно страшно» думать, что системы ИИ могут «настолько укорениться в обществе… [что мы] не можем по-настоящему понять, что они делают, но нам приходится на них полагаться. И даже без капли недоброжелательности с чьей-либо стороны общество может просто сместиться в каком-то странном направлении».
Он даже предположил, что может наступить время, когда ИИ станет настолько умным, что будущий президент США сможет позволить ему управлять страной, заявив: «[Это будет означать], что общество коллективно передало значительную часть принятия решений этой очень мощной системе, которая учится у нас, совершенствуется вместе с нами, развивается вместе с нами, но способами, которые мы до конца не понимаем».
Говоря об ИИ в более широком смысле, Альтман отметил, что, хотя многие эксперты утверждают, что могут предсказать будущее влияние технологии, он считает, что это «очень трудно предсказать», поскольку это «слишком сложная система, слишком новая и влиятельная технология».
Конечно, нет никаких гарантий, что любой из этих сценариев осуществится, и хорошо, что кто-то в положении Альтмана говорит об этой технологии так честно. Но очевидно, что в сфере искусственного интеллекта существует множество неизвестных неизвестных, и именно это заставляет некоторых людей изрядно нервничать. Спите спокойно.