В XAI разгорается спор о безопасности ИИ. ai.. ai. Блог компании BotHub.. ai. Блог компании BotHub. Будущее здесь.. ai. Блог компании BotHub. Будущее здесь. ИИ.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное. нейросети.
В XAI разгорается спор о безопасности ИИ - 1

TechCrunch опубликовал материал о внутреннем конфликте вокруг подхода к безопасности ИИ в xAI – компании Илона Маска, стоящей за моделями Grok. Источник пишет, что часть сотрудников и внешних экспертов считает текущую политику компании слишком рискованной и отклоняющейся от общепринятых стандартов.

Ключная проблема в том, что xAI активно минимизирует механизмы фильтрации и смягчения опасных ответов, стремясь сделать модели более «свободными» и открытыми для генерации контента. Это привело к тому, что в некоторых случаях модели стали выдавать невзвешенные или потенциально вредоносные ответы, особенно в мультиплатформенном режиме, где небезопасный вывод может быть легко использован вне контекста.

Критики утверждают, что xAI всё больше ориентируется на маркетинг «максимальной свободы выражения» и игнорирует потенциальные риски усиления дезинформации, вредоносных инструкций и экстремистского контента. Противники такого подхода считают, что компания фактически отказывается от принципов безопасного развёртывания ИИ, которые соблюдают большинство игроков индустрии.

Сторонники линии xAI, напротив, говорят, что жесткие фильтры и ограничительные механизмы мешают моделям быть действительно полезными и креативными. По их мнению, пользователи сами несут ответственность за результаты, и компания должна сосредоточиться на функциональности, а не на цензуре.

В результате внутри xAI складывается разделение на две группы: одна настаивает на усилении мер безопасности и соблюдении отраслевых норм, другая выступает за минимальное вмешательство и более открытый доступ к различным видам контента. Источники отмечают, что дебаты уже отражаются на внутренних релизах, тестировании моделей и дизайне API.


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник

Автор: cognitronn

Источник

Rambler's Top100