
В условиях использования Microsoft Copilot обнаружили формулировку, которая резко расходится с тем, как компания продвигает продукт для работы и бизнеса. На странице условий сервиса сказано, что Copilot предназначен «только для развлекательных целей», может ошибаться, может работать не так, как ожидается, и на него не стоит полагаться при получении важного совета. Microsoft также предупреждает: использовать Copilot нужно на свой риск.
История получила резонанс на фоне того, что Microsoft активно продвигает Copilot как рабочий инструмент для корпоративных клиентов и пользователей Microsoft 365. На этом фоне формулировка из terms of use выглядит особенно контрастно: маркетинг продает ИИ как помощника для продуктивности, а юридический текст советует не доверять ему в важных вопросах.
Другие новости и материалы по AI — в Telegram-канале NH | Новости технологий, AI и будущее.
После обсуждения в СМИ Microsoft заявила, что речь идет о «устаревшей формулировке». В комментарии, который цитируют профильные издания, представитель компании пояснил, что этот текст остался с более раннего этапа развития Copilot и больше не отражает нынешние сценарии использования продукта. По словам Microsoft, формулировку изменят в следующем обновлении условий.
При этом Microsoft не уникальна: другие AI-компании тоже прямо предупреждают пользователей не воспринимать ответы моделей как истину и не использовать их как единственный источник фактов. Но в случае Copilot внимание привлекла именно жесткая фраза про «развлекательные цели probability». Она особенно заметна для продукта, который компания продает как помощника для документов, почты, презентаций и корпоративных задач.
История хорошо показывает текущее состояние генеративного ИИ: бизнес хочет монетизировать такие инструменты как можно шире, а юридические команды параллельно страхуются от ошибок, галлюцинаций и неверных решений пользователей. Поэтому реальная инструкция по использованию Copilot пока остается прежней: читать, проверять и не отдавать модели последнее слово там, где важны точность и последствия.
В канале NH | Новости технологий, AI и будущее публикуем новости AI, полезные сервисы, автоматизацию и материалы о практическом применении нейросетей. Если нужна зарубежная карта для оплаты сервисов, отдельный разбор можно почитать здесь.
Автор: NeuralDigest


