Компания Microsoft годами продвигала Copilot, но теперь заявляет, что на него не стоит полагаться.
Последние пару лет Microsoft активно продвигает Copilot . Он буквально повсюду: в Windows , Edge , Office , и даже интегрирован в основные рабочие процессы, где его невозможно игнорировать. Послание компании предельно ясно: это будущее производительности, ваш ИИ-помощник для выполнения действительно важной работы.
И вот теперь Microsoft вдруг заявляет… не воспринимайте это слишком серьезно.
Microsoft отказывается от заявления Copilot о «серьезном применении» продукта.
Как впервые сообщило издание Tom's Hardware , в Условиях использования Microsoft Copilot указано, что Copilot предназначен «исключительно для развлекательных целей» и не должен использоваться для принятия важных или рискованных решений. Это включает в себя такие вещи, как финансовые, юридические или медицинские консультации. В общем, то, для чего люди все чаще используют ИИ.
Copilot предназначен исключительно для развлекательных целей. Он может совершать ошибки и работать не так, как задумано. Не полагайтесь на Copilot в качестве важного источника информации. Используйте Copilot на свой страх и риск.
На бумаге это выглядит логично. Искусственный интеллект может галлюцинировать, ошибаться и порой звучать гораздо увереннее, чем следовало бы. С юридической точки зрения, такое предупреждение практически ожидаемо, поскольку оно служит своего рода страховкой, позволяющей избежать потенциальной ответственности по мере масштабирования этих инструментов.
Но вот тут-то и начинаются некоторые странности. Это тот самый Copilot, который Microsoft глубоко интегрировала в Word, Excel, Outlook и Teams . Более того, как отмечают пользователи , он даже встроен в собственные корпоративные решения Microsoft. Инструменты, которые люди используют для реальной работы, а не для случайных экспериментов. Когда ваш ИИ суммирует электронные письма, составляет отчеты или анализирует данные, называть это «развлечением» кажется странно несовместимым с реальностью.
Интернет в это не верит.
Неудивительно, что интернет-сообщество не слишком этому радуется. Реакция в основном выражается в недоумении, смешанном с множеством закатываний глаз. Потому что, давайте будем честны, если Copilot не предназначен для серьезного использования, почему он находится на видном месте среди инструментов, на которые люди полагаются для выполнения серьезной работы?
Начинает казаться, что это не столько переосмысление, сколько страховка. Внедрить Copilot повсюду, сделать его неизбежным, представить его как будущее, а затем незаметно добавить пометку «не полагайтесь на него», когда ситуация осложнится. Это отличный способ наслаждаться преимуществами ИИ, избегая при этом ответственности, которая с ним связана.
Конечно, Microsoft здесь не единственная. Каждый инструмент искусственного интеллекта содержит подобное предупреждение, запрятанное мелким шрифтом. Но большинство таких инструментов являются необязательными. Вы устанавливаете их, пробуете и сами решаете, насколько им можно доверять. К сожалению, Copilot пошел другим путем. Он появился в Windows и Office и стал частью пользовательского интерфейса, независимо от того, запрашивали вы это или нет.
Именно поэтому всё это кажется странным. После нескольких месяцев обещаний, что Copilot — это будущее продуктивности, называть его «просто развлечением» теперь кажется странным разворотом на 180 градусов. На данном этапе пользователи ставят под сомнение не только саму идею, но и всю интеграцию в целом. Потому что, если это просто развлечение, может быть, его не должно быть так сложно отключить?