
TechCrunch опубликовал материал о внутреннем конфликте вокруг подхода к безопасности ИИ в xAI – компании Илона Маска, стоящей за моделями Grok. Источник пишет, что часть сотрудников и внешних экспертов считает текущую политику компании слишком рискованной и отклоняющейся от общепринятых стандартов.
Ключная проблема в том, что xAI активно минимизирует механизмы фильтрации и смягчения опасных ответов, стремясь сделать модели более «свободными» и открытыми для генерации контента. Это привело к тому, что в некоторых случаях модели стали выдавать невзвешенные или потенциально вредоносные ответы, особенно в мультиплатформенном режиме, где небезопасный вывод может быть легко использован вне контекста.
Критики утверждают, что xAI всё больше ориентируется на маркетинг «максимальной свободы выражения» и игнорирует потенциальные риски усиления дезинформации, вредоносных инструкций и экстремистского контента. Противники такого подхода считают, что компания фактически отказывается от принципов безопасного развёртывания ИИ, которые соблюдают большинство игроков индустрии.
Сторонники линии xAI, напротив, говорят, что жесткие фильтры и ограничительные механизмы мешают моделям быть действительно полезными и креативными. По их мнению, пользователи сами несут ответственность за результаты, и компания должна сосредоточиться на функциональности, а не на цензуре.
В результате внутри xAI складывается разделение на две группы: одна настаивает на усилении мер безопасности и соблюдении отраслевых норм, другая выступает за минимальное вмешательство и более открытый доступ к различным видам контента. Источники отмечают, что дебаты уже отражаются на внутренних релизах, тестировании моделей и дизайне API.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: cognitronn


