Заглянуть под капот ИИ-агентов: новый инструмент раскрывает «магию» Claude Code
TL;DR: Появился открытый инструмент Coding Agent Explorer — обратный прокси-сервер, который в реальном времени показывает всё общение между вашим ИИ-агентом (пока только Claude Code) и API Anthropic. Вы видите системные промпты, последовательность вызовов инструментов, токены (включая кэш), мышление агента шаг за шагом. Запускается за пару минут, работает локально, ключи маскируются автоматически.
Anthropic выпустила Claude Sonnet 4.6 с контекстом в 1 млн токенов
Anthropic представила Claude Sonnet 4.6 — обновлённую версию своей «средней» модели, которая по ряду задач уже приближается к уровню Opus.Теперь Sonnet 4.6 — модель по умолчанию в claude.ai
LLM модели: зарубежные VS отечественные
Когда команда выбирает LLM для продакшена, «сравнение по бенчмаркам» — это лишь первый фильтр. Для CTO ключевой вопрос звучит иначе: какую комбинацию качества, стоимости, стабильности API, юридических ограничений и интеграций мы получим на реальной нагрузке. Я разобрал популярные модели через призму двух контуров: качество/бенчмарки и инфраструктурная пригодность.Сравнение бенчмарков
Почему LLM продолжают генерировать ошибки в коде — и это не исправить масштабированием
Представьте типичную ситуацию: вы просите модель написать функцию обработки данных для корпоративного проекта. Код появляется за секунды, выглядит аккуратно, проходит локальные тесты. Но в продакшене всплывают скрытые проблемы: логика чуть расходится с требованиями в граничных условиях, или код игнорирует специфические ограничения внутренней библиотеки, которую модель никогда не видела в обучающих данных.
Небольшой тест LLM‑модели qwen3‑coder‑next:q8_0
Краткий эксперимент, проведённый в реальном времени.Что это за модель?ПараметрЗначениеНазначениеГенерация и отладка кодаКол‑во параметров~80 млрдКвантованиеQ8 (8‑бит)Размер84 ГБТребования к памяти≈ 84 ГБ VRAM (или эквивалентный объём RAM при работе без GPU)
RAG (Retrieval Augmented Generation) — a simple and clear explanation
People keep asking me what RAG is (in the context of large language models), and I keep wanting to share a link to an article on habr that would explain the concept of RAG (Retrieval Augmented Generation) in simple terms yet in detail, including instructions on how to implement this "beast." But there is still no such article, so I decided not to wait and write one myself.If something in the article is unclear or there are aspects of RAG that need to be elaborated on, don't hesitate—leave comments; I'll break it down and add more if necessary. Okay, let's go…RAG (Retrieval Augmented Generation) is a way of working with large language models where the user writes their question, and you programmatically mix in additional information from some external sources to that question and feed it, as a whole, into the language model. In other words, you add additional information to the model's context, based on which the language model can give the user a more complete and accurate answer.The simplest example:The user asks the model: "What is the current dollar exchange rate?"
Language Dove: как я транскрибирую и перевожу фильмы
Я обожаю смотреть иностранные фильмы в оригинале.Во-первых, мне нравится расширять кругозор, погружаться в другую культуру, расшифровывать структуру разных языков, пополнять словарный запас.Во-вторых, мне просто нравится звучание некоторых языков - например, французского, датского, китайского.Также я работаю над сайтом по изучению языков Language Dove, а учить языки по фильмам - это очень эффективно.Так родился проект по генерации идеальных субтитров.Функциональность субтитров:Подсветка слов в момент произношения - для тренировки восприятия на слух
Практический гид по Claude Skills, проектам и Claude Code: как собрать свой ИИ-стек
Claude Skills (Agent Skills
Как прошла AAAI 2026: большой репортаж
Привет, Хабр! Конференции серии AAAI — крупнейшие события в области искусственного интеллекта, которые утягивают на себя внимание в начале каждого года. Местом проведения AAAI 2026 стал Сингапур, что позволило мне — директору лаборатории когнитивных систем искусственного интеллекта AIRI и Центра когнитивного моделирования в Институте искусственного интеллекта МФТИ Александру Панову — и многим моим коллегам принять в ней участие.
Opus 4.6 и команда ИИ-агентов написала компилятор С за 2 недели
Исследователь Anthropic Николас Карлини провёл эксперимент с так называемыми agent teams — группой автономных LLM-агентов, которые работают над одним проектом без постоянного участия человека.В качестве стресс-теста он запустил 16 экземпляров Claude Opus 4.6 и поручил им написать компилятор С на Rust с нуля. Цель была следующей: компилятор должен уметь собирать Linux kernel. После почти 2000 сессий, двух недель работы и затрат около 20 000 долларов агенты выдали

