Как Anthropic заставили ИИ взломать блокчейн-контракты на сумму 550 миллионов долларов
На днях стартап Anthropic – создатели чат-бота Claude – опубликовал занятное исследование на тему кибербезопасности в эпоху ИИ. Исследователи дали нескольким ИИ-моделям задачу, которую обычно решают живые аудиторы и хакеры: найти уязвимости в смарт-контрактах и попробовать их эксплуатировать (читать как "попробовать украсть сколько-нибуд�� денег"). Результаты, мягко говоря, не могут оставить равнодушным: совокупный баланс моделей после серии "грабежей" составил $550,1 млн. Но давайте разберемся, действительно ли все так страшно.
Нейро-дайджест: ключевые события мира AI за 1-ю неделю декабря 2025
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.Меня зовут Вандер
Паника Сэма Альтмана: Почему пользователи бегут из ChatGPT, а Google празднует победу
OpenAI нажала на красную кнопку, и сегодня оказалась в позиции отстающих. Разберемся, почему так случилось, и кто смог обогнать AI-первопроходца.
Как ИИ меняет работу инженеров в Anthropic
Anthropic опубликовала большое внутреннее исследование о том, как ИИ меняет работу инженеров — на этот раз не в теории, а на собственном примере.Летом 2025 года команда собрала данные по 132 инженерам и исследователям, провела 53 глубинных интервью и проанализировала около 200 000 логов Claude Code за два периода с разницей в полгода. Это не срез по индустрии, а взгляд изнутри компании, которая сама разрабатывает ИИ и имеет к нему ранний доступ, и в статье это честно оговаривается.Как изменилось использование ИИ
Claude Code: держите контекст чистым, а контроль — под задачу
ВведениеЯ сижу в Claude Code с релиза — каждый день, на реальных задачах. Успел побыть и скептиком («очередная хайповая штука»), и фанатиком («агент всё сделает сам»). В итоге пришёл к набору правил, которые помогают не скатываться в крайности.Для меня Claude Code — лучший агент на рынке. Cursor, Gemini CLI, Codex пробовал, но разница ощутимая. Anthropic реально вкладываются в продукт и регулярно добавляют фичи.Статья для тех, кто начинает работать с Claude Code. Опытным многое будет знакомо, но наверняка что-то зацепит. Две части: как не засорять контекст и как менять подход в зависимости от задачи.Следите за размытием контекстного окна
The Romantics at Anthropic: Why Researchers Talk About LLMs as if They Were Human
In my previous article, I showed how researchers confused being 'aware' (signal registration) with being 'conscious' (subjective awareness). But this is no accident — it is part of a narrative being constructed by AI labs. Anthropic is leading this trend. Let’s break down their latest paper, where a "learned pattern" has suddenly turned into "malicious intent."I recently analyzed an experiment by scientists from AE Studio in which they conflated "aware" (registering a signal) with "aware" (conscious realization). Yet, such anthropomorphization of LLMs is now ubiquitous — in no small part thanks to papers from Anthropic. It seems to me that it is largely through their influence that terms like deception, sabotage, and intent have entered the vocabulary of LLM researchers.
Романтики из Anthropic: Почему исследователи говорят о LLM как о человеке
В прошлой статье я показал, как исследователи перепутали "aware" (регистрация) с "conscious" (осознание). Но это не случайность — это часть нарратива, который строят AI-лаборатории. Anthropic — лидеры этого тренда. Разберём их последнюю статью, где "выученный паттерн" стал "злым намерениемНедавно я разбирал эксперимент

