
В пользовательском соглашении Microsoft указано, что Copilot предназначен «только для развлекательных целей». Компания прямо предупреждает пользователей: ИИ может ошибаться, работать некорректно и не должен использоваться для получения важных или критических советов.
В документе отдельно подчёркивается:
• Copilot может выдавать неточную информацию
• результаты не гарантированы
• использовать инструмент нужно «на свой риск»
Это выглядит контрастно на фоне того, как Microsoft активно продвигает Copilot как рабочий инструмент для бизнеса и повседневных задач. Фактически компания юридически снимает с себя ответственность за возможные ошибки модели, перекладывая её на пользователя.
При этом представители Microsoft уже заявили, что такая формулировка — «устаревший текст», который планируют обновить, поскольку он не отражает текущее позиционирование продукта.
Ситуация показывает общий тренд индустрии: AI-компании одновременно продают ИИ как мощный инструмент продуктивности, но в юридических документах максимально страхуются от последствий его использования.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: cognitronn


