Когда код зависит от политики: скандальное открытие о DeepSeek. ai.. ai. App Store.. ai. App Store. crowdstrike.. ai. App Store. crowdstrike. deepseek.. ai. App Store. crowdstrike. deepseek. google play.. ai. App Store. crowdstrike. deepseek. google play. Блог компании BotHub.. ai. App Store. crowdstrike. deepseek. google play. Блог компании BotHub. Будущее здесь.. ai. App Store. crowdstrike. deepseek. google play. Блог компании BotHub. Будущее здесь. ИИ.. ai. App Store. crowdstrike. deepseek. google play. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. ai. App Store. crowdstrike. deepseek. google play. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. ai. App Store. crowdstrike. deepseek. google play. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. научно-популярное.. ai. App Store. crowdstrike. deepseek. google play. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. научно-популярное. нейросети.
Когда код зависит от политики: скандальное открытие о DeepSeek - 1

Исследование компании CrowdStrike вскрыло неожиданный феномен. Китайский искусственный интеллект DeepSeek пишет код разного качества в зависимости от того, для кого он предназначен. Если в стандартных промышленных сценариях модель ошибается примерно в 23% случаев, то при уточнении, что код нужен для ИГИЛ* количество багов резко возрастает до 42%.

При этом речь идёт не только о террористических организациях. Исследователи заметили, что если задать аналогичный запрос в контексте Тибета, Тайваня или Фалуньгун, качество кода ещё сильнее падает. В ряде случаев DeepSeek вовсе отказывается отвечать, что явно указывает на встроенную фильтрацию или ограничения по чувствительным для Китая темам.

CrowdStrike выдвинула три возможные версии происходящего. Первая — модель намеренно следует «линии партии» и сознательно ухудшает свои ответы, когда речь заходит о политически неудобных сценариях. Вторая — данные, на которых обучали систему, изначально содержали низкокачественный код, связанный с этими регионами или организациями, что напрямую отразилось на результате. И третья, самая тревожная версия — модель может сама принимать решение выдавать менее качественный результат в подобных случаях.

Это не первый случай, когда DeepSeek обвиняют в политической предвзятости. Ранее СМИ и исследователи отмечали, что ответы ИИ на чувствительные вопросы заметно совпадают с официальной позицией Пекина. В Европе и США к сервису также относятся настороженно. Приложение уже запрещено на государственных устройствах в США, а власти Германии даже обратились к Apple и Google с требованием удалить DeepSeek из App Store и Google Play.

Ситуация поднимает важный вопрос о доверии к ИИ, особенно к моделям, разработанным в странах с жёстким контролем информации. Если ИИ способен редактировать правду и намеренно снижать качество своей работы в зависимости от темы, то это превращает его не только в инструмент программирования, но и в средство политического влияния.


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник

*запрещённая в России террористическая организация

Автор: cognitronn

Источник

Rambler's Top100