Microsoft перепишет условия Copilot после критики формулировки про «развлечение». ai.. ai. Big Data.. ai. Big Data. Bug hunters.. ai. Big Data. Bug hunters. copilot.. ai. Big Data. Bug hunters. copilot. enterprise.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft. microsoft 365.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft. microsoft 365. Open source.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft. microsoft 365. Open source. terms of use.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft. microsoft 365. Open source. terms of use. Блог компании NeyroHub.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft. microsoft 365. Open source. terms of use. Блог компании NeyroHub. генеративный ии.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft. microsoft 365. Open source. terms of use. Блог компании NeyroHub. генеративный ии. искусственный интеллект.. ai. Big Data. Bug hunters. copilot. enterprise. hallucinations. microsoft. microsoft 365. Open source. terms of use. Блог компании NeyroHub. генеративный ии. искусственный интеллект. юридические риски.
Microsoft перепишет условия Copilot после критики формулировки про «развлечение» - 1

В условиях использования Microsoft Copilot обнаружили формулировку, которая резко расходится с тем, как компания продвигает продукт для работы и бизнеса. На странице условий сервиса сказано, что Copilot предназначен «только для развлекательных целей», может ошибаться, может работать не так, как ожидается, и на него не стоит полагаться при получении важного совета. Microsoft также предупреждает: использовать Copilot нужно на свой риск.

История получила резонанс на фоне того, что Microsoft активно продвигает Copilot как рабочий инструмент для корпоративных клиентов и пользователей Microsoft 365. На этом фоне формулировка из terms of use выглядит особенно контрастно: маркетинг продает ИИ как помощника для продуктивности, а юридический текст советует не доверять ему в важных вопросах.

Другие новости и материалы по AI — в Telegram-канале NH | Новости технологий, AI и будущее.

После обсуждения в СМИ Microsoft заявила, что речь идет о «устаревшей формулировке». В комментарии, который цитируют профильные издания, представитель компании пояснил, что этот текст остался с более раннего этапа развития Copilot и больше не отражает нынешние сценарии использования продукта. По словам Microsoft, формулировку изменят в следующем обновлении условий.

При этом Microsoft не уникальна: другие AI-компании тоже прямо предупреждают пользователей не воспринимать ответы моделей как истину и не использовать их как единственный источник фактов. Но в случае Copilot внимание привлекла именно жесткая фраза про «развлекательные цели probability». Она особенно заметна для продукта, который компания продает как помощника для документов, почты, презентаций и корпоративных задач.

История хорошо показывает текущее состояние генеративного ИИ: бизнес хочет монетизировать такие инструменты как можно шире, а юридические команды параллельно страхуются от ошибок, галлюцинаций и неверных решений пользователей. Поэтому реальная инструкция по использованию Copilot пока остается прежней: читать, проверять и не отдавать модели последнее слово там, где важны точность и последствия.


Источник

В канале NH | Новости технологий, AI и будущее публикуем новости AI, полезные сервисы, автоматизацию и материалы о практическом применении нейросетей. Если нужна зарубежная карта для оплаты сервисов, отдельный разбор можно почитать здесь.

Автор: NeuralDigest

Источник