"Мы обновляем формулировку", - заявляет Microsoft после реакции на реплику Copilot

Теперь Microsoft отбивается от утверждений, что Copilot предназначен только для "развлечений", после того, как ее собственные условия использования вызвали много путаницы в сети (подробнее об этом читайте здесь).
Проблема началась, когда пользователи заметили в документации Microsoft по Copilot раздел, в котором говорится, что ИИ "может ошибаться", ему нельзя доверять важные советы, и он предназначен только для развлечения. Формулировка явно странная, потому что она противоречит тому, как Microsoft сейчас рекламирует Copilot - как "инструмент продуктивности" в Windows 11 и Microsoft 365. Кроме того, интеграция Copilot в ОС в последнее время была встречена весьма неоднозначно.
В заявлении на сайте , опубликованном на сайте Windows Latestmicrosoft заявила, что эта формулировка больше не соответствует действительности. Компания объяснила, что "развлекательная" часть документации относится к ранним дням Bing Chat, когда инструменты генеративного ИИ еще использовались более осторожно и сдержанно. По словам Microsoft, с тех пор Copilot "эволюционировал", и документация будет обновлена, чтобы лучше отразить его нынешнюю роль в ОС и других приложениях.
Однако проблема заключается не только в самой формулировке, но и в несоответствии между маркетинговыми и юридическими формулировками. Хотя Microsoft продвигает Copilot как инструмент для выполнения работы, его текущие отказы от ответственности все еще включают в себя неопределенность, отсутствие гарантий и ответственность пользователя. Даже за пределами строки "развлечение" в документе, условия Microsoft относительно "результаты могут быть неточными" и "пользователи несут ответственность за любые последствия" не изменились - но, как добавляет источник, это относится и к другим инструментам ИИ. Так что, хотя компания утверждает, что Copilot создан для реальной работы, мелкий шрифт просто еще не дошел до конца, вот и все.






