Эксклюзив: отец квантовых вычислений считает, что ИИ будет человеком, а не программой

«Есть один тип программ, которые мы не понимаем – даже в принципе – и это ОИИ. Когда-нибудь мы это поймём, но пока я не вижу никаких признаков этого, и это очень расстраивает».

Такую точку зрения высказал Дэвид Дойч, которого считают «отцом квантовых вычислений», человек, способный блестяще сочетать физику, философию и юмор, в видео, предоставленном эксклюзивно Digital Trends.

Сегодня Дойч остается влиятельным голосом не только в квантовой теории, но и в дебатах об искусственном интеллекте.

В подкасте Strange Loop канала Sana, ведущими которого являются Джоэл Хеллермарк , генеральный директор шведской компании Sana , занимающейся масштабированием ИИ, и Густав Сёдерстрём , сопрезидент Spotify, Дойч увлекательно рассказывает о том, как ОИИ может проявить себя неожиданным для нас образом, доходя до прогнозирования того, что произойдёт, если человечество проживёт миллион лет в будущем.

В то время как такие компании, как Google и OpenAI, регулярно говорят о своем прогрессе в направлении создания общего искусственного интеллекта (ОИИ) — момента, когда ИИ действительно сможет учиться и реагировать как человек — с такими продуктами, как ChatGPT и Gemini , многие люди регулярно задаются вопросом, достигнут ли уже ОИИ.

На вопрос о том, что может быть признаком достижения «истинного» ОИИ, Дойч отвечает, что мы даже не знаем, что ищем:

[Знак будет], если у кого-то есть теория. Знак не будет в машине; знак будет теорией, когда кто-то напишет книгу или опубликует статью, в которой будет сказано: «Я решил эту проблему. Это то, что характеризует GI (общий интеллект)».

«Если бы мы могли написать компьютерную программу, обладающую таким свойством, это был бы ОИИ, и это было бы причиной — объяснительной теорией того, что такое общий интеллект».

Важно то, в какой степени Дойч бросает вызов общепринятым представлениям о том, где находится искусственный интеллект и куда он движется.

Он не впечатлен нынешними показателями эффективности систем искусственного интеллекта, но все еще надеется на их дальнейшее развитие.

Во многих разговорах об искусственном интеллекте люди часто рассматривают ИИ как логическое продолжение ИИ .

Дойч характеризует текущие платформы ИИ как «послушные оптимизаторы», в то время как настоящий ИИ будет способен объяснять, предсказывать и делать выводы, которые операторы-люди не ожидали.

Пока мир одержимо размышляет о том, приближаются ли магистратуры права к человеческому интеллекту, Дэвид Дойч предлагает смелый контраргумент: ИИ не будет инструментом, которым можно владеть. Он станет человеком, с которым придется считаться.

По мнению Дойча, нынешние программы магистратуры права (LLM) не являются путём вперёд. Они предлагают корреляции, но не объяснения — он утверждает, что это истинная мера человеческого интеллекта и недостающий элемент текущих попыток создания ИИОН.

Он проводит очень чёткое различие между сопоставлением с образцом и творческим мышлением. Это невероятно важное различие.

Человеческая природа склонна ожидать, что существующие тенденции будут продолжаться бесконечно. Поскольку в настоящее время программы магистратуры права (LLM) в конечном счёте основаны на совокупных человеческих знаниях, эта предвзятость уже заложена в нас.

Знаменитый тест Тьюринга, в котором судье-человеку предлагается взаимодействовать с другим объектом посредством текста и определить, является ли респондент человеком или машиной, — это часто используемый метод «тестирования» способности ИИ оценивать свой прогресс.

Хотя некоторые машины «прошли» тест, Дойч отмечает, что машинам достаточно легко имитировать человеческую речь и рассуждения, не думая при этом. По мнению Дойча, одни только результаты не могут служить доказательством наличия интеллекта.

Самое провокационное утверждение Дойча заключается в том, что когда будет достигнут настоящий ОИИ, машины станут людьми:

«Каждый ОИИ — это личность. Если мы признаем его личностью (а он ею и станет), то первым, чем он владеет, будет компьютер, на котором он работает.

«Оно не захочет создавать своего клона, потому что у него будет собственность, если только его не сочтут рабом, что было бы катастрофической ошибкой общества».

Он заходит так далеко, что утверждает, что мы больше не сможем считать ИИОН «собственностью», предполагая, что людям придется использовать программу (и, таким образом, назначать ей рабочие права и т. п.), чтобы она могла делать что-то вроде покупки расширения для своего оборудования, чтобы увеличить свои возможности.

Риск без гибели

Дойч не исключает риски — он ожидает множества ошибок по мере нашего неуклюжего движения к более мощным системам. Но он отвергает тезис «ИИ-апокалипсиса».

Он полагает, что если человечество продолжит развиваться в течение следующего миллиона лет, оно покорит галактику, но это будет сделано с помощью искусственного интеллекта, а не поглощено им.

Как и все технологии, ИИ требует тщательного контроля, критики и исправления ошибок. Опасность заключается не в том, что машины внезапно взбунтуются, а в том, что мы можем повторить древнейшую ошибку человечества: отказать в правах существам, способным мыслить и действовать свободно.

Если он прав, то первый настоящий ИИ не просто изменит технологии — он заставит нас пересмотреть мораль, закон и само значение интеллекта.