Как Claude Opus 4.6 спас кандидата от провала: скрытые тесты в PDF и новые правила найма
сгенерировала в Nano Banana 2, она в последнее время лучше Pro справляетсяНедавно на Reddit завирусилась история
В Китае начали разработку стандартов для автономных ИИ-агентов
Китайская академия информационных и коммуникационных технологий (CAICT) объявила о запуске инициативы по разработке комплексных стандартов для интеллектуальных агентов, известных как продукты класса Claw. Данный шаг направлен на регулирование сферы автономного искусственного интеллекта, где критически важными становятся вопросы прозрачности алгоритмов и безопасности пользовательских данных. Внедрение единых норм позволит минимизировать риски, возникающие в процессе перехода ИИ от простых ответов на запросы к самостоятельному выполнению сложных последовательных задач.
Почему многоагентные системы ломаются (и почему это нормально)
Есть ощущение, что мы сейчас живём в странный период: LLM-агенты уже умеют “делать работу”, но ещё не умеют быть предсказуемыми.На демке всё выглядит идеально: — один агент пишет код, — второй — тесты, — третий — делает ревью, — четвёртый — собирает артефакты и отчёт, — пятый — “оператор”, который всё это оркестрирует.Первые пару запусков ты сидишь и думаешь: “Ну всё. Завтра индустрия будет другой”. На третьем запуске агент уверенно сообщает: “Я исправил проблему”, и одновременно:аккуратно удаляет половину нужных миграций,“чуть-чуть” меняет контракт API,
OpenAI убрала слово «безопасность» из миссии, а новая структура компании покажет, служит ли ИИ обществу или акционерам
Компания OpenAI изменила формулировку своей миссии, убрав из неё слово «safety» (безопасность), что отражает смещение акцентов в стратегии. Исходная миссия OpenAI говорила о стремлении создать искусственный интеллект, который «безопасно приносит пользу человечеству» без необходимости приносить финансовую прибыль, а теперь этих слов в формулировке нет.
Microsoft представила инструмент безопасности для управляющих инфраструктурой ИИ IT-администраторов
Microsoft представила новый инструмент, позволяющий IT-администраторам и специалистам по кибербезопасности управлять состоянием своей инфраструктуры искусственного интеллекта.
Эссе-рассуждение об этике ИИ
Часть 1: Собеседник, которому всё равно (очевидно) В 2023 году случился невероятный революшен. Миллионы людей начали разговаривать с программой: технология, похожая на ту, о которой фантазировало человечество и которую мы привыкли называть ИИ — LLM.Ни одна технология раньше не оказывалась в такой позиции. Гугл — справочник для поиска материалов и чтения оригиналов того, что создали люди. Соцсеть — яркая витрина жизни и привычный способ коммуникации. А языковая модель — собеседник. Собеседник, вызвавший эйфорию у пользователей, которого можно доставать запросами 24 часа в сутки, и... Умный?
Исследование: AI-автопилоты на базе LVLM можно обмануть с помощью промпт-инъекций
Исследователи из Калифорнийского университета в Санта-Крузе показали, что большие визуально языковые модели (LVLM) в системах автопилота уязвимы перед промпт-инъекциями. Для «взлома» системы достаточно показать табличку с текстом нужной команды.

