Anthropic запустила веб-приложение ИИ-помощника Claude Code
Компания Anthropic представила веб-приложение для своего популярного помощника по программированию на основе ИИ Claude Code. Оно позволяет разработчикам создавать нескольких агентов и управлять ими прямо из браузера.
Промпт-инжиниринг мёртв? Почему «как спросить» больше не важно, и что приходит на смену
Новое исследование от Anthropic, создателей Claude, ставит крест на классическом промпт-инжиниринге. Их вывод: эффективность ИИ-агентов теперь определяется не тем, как вы спросите, а тем, какие данные вы им предоставите. На сцену выходит контекст-инжиниринг.У этого есть пара предпосылок:Битва за контекстное окно проиграна. Его практически невозможно расширить, а стоимость обработки длинных контекстов растёт квадратично.Сама по себе идеально сформулированная задача ничего не решает, если нет контекста.
Небольшое количество примеров может отравить LLM любого размера
Команда AI for Devs подготовила перевод исследования в котором учёные показали: чтобы встроить «бэкдор» в большую языковую модель, вовсе не нужно контролировать огромную долю обучающих данных — достаточно около 250 вредоносных документов. Этот результат переворачивает представления о масштабируемости атак через отравление данных и ставит новые вопросы к безопасности ИИ.
Anthropic представила Claude Haiku 4.5: быструю и дешёвую версию Sonnet 4
Anthropic тихо, но эффектно выкатил Claude Haiku 4.5
Пожиратель токенов (или нет): анатомия протокола MCP для ИИ-агентов
Поводом написания этой статьи послужил подслушанный диалог:— А на чем у вас агенты написаны?— У нас на MCP!Для меня MCP всегда был просто протоколом, то есть именно способом отправки и обработки запросов. А когда я слушал выступления или читал некоторые статьи о том, как плох/хорош MCP, меня не покидало ощущение чего-то странного. Но я все же решил, что это от незнания и я чего-то не понимаю. А когда не понимаешь, но очень хочешь понимать, то самый лучший способ — это взять и разобраться.
Исследование: 250 вредоносных документов могут вызвать сбой в работе языковой модели с 13 млрд параметров
Специалисты Anthropic совместно с Институтом безопасности ИИ Великобритании, Институтом Алана Тьюринга и другими исследовательскими центрами провели эксперимент, который показал, что всего 250 вредоносных документов способны вызвать сбой в работе языковой модели с 13 млрд параметров. Таким образом, для появления багов достаточно «отравить» всего 0,00016% обучающего корпуса.

