llm.
Почему ИИ пока не увольняет целиком: разбор «зон автоматизации» и реальных данных по задачам
Разбираемся, где на самом деле проходит потолок возможностей современных моделей и какие задачи останутся за человеком в ближайшие годы.
10 фичей Claude Code, которые превратили одного разработчика в команду из 15 человек
512 000 строк утёкшего кода, совещание ботиков, и почему человек стал узким местом разработки31 марта 2026 года Anthropic случайно выложила npm-пакет с source map файлом на 59.8 мегабайт. Внутри - 512 000 строк TypeScript, 1 900 исходных файлов и 44 скрытых feature flags. Весь исходный код Claude Code, включая вещи, о которых пользователи даже не подозревали.
Несколько Клодов над одним проектом: locks, handoffs и email 1982 года
Я работаю с Claude Code параллельно на трёх подписках Pro. Плюс коллеги на своих мульти-аккаунтах, часто в тех же файлах, часто в один и тот же день.Когда мне надоело каждый новый чат заново пересказывать Claude’у курс дел - я придумала handoff’ы: короткую сводку, которую сессия пишет в конце и которую следующая читает при старте.Когда на долгих проектах handoff’ов накопилось по восемьдесят штук и новая сессия тратила полчаса на «как мы сюда вообще пришли» - я придумала rollup’ы: один handoff, который сворачивает двадцать предыдущих. Цепочка rollup’ов на длинной дистанции становится летописью проекта.
Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review
На что действительно стоит смотреть в перегретом и шумном мире AI, если хочется не пропустить важные сдвиги? Редакция MIT Technology Review не первый год следит за тем, как развивается эта сфера, какие идеи в ней набирают вес и куда в целом смещается баланс сил. В этой подборке собраны темы, которые уже сейчас двигают индустрию вперёд и во многом задают рамку для того, что станет возможным дальше.Сначала рассмотрим изменения внутри самой технологии: новые архитектуры
vLLM, LoRA и GPU-кластеры: техническая анатомия обогащения поисковой выдачи Авито мультимодальными моделями
Привет, Хабр! Меня зовут Кирилл Нетреба, я Backend-ML-инженер в Авито. В этой статье я разберу, как мы научили платформу отыскивать нужные пользователю объявления, даже если в них нет соответствующего запросу текста. Мы препарируем связку из Qwen2.5-VL, фреймворка vLLM и LoRA-адаптеров, а также заглянем в бэкенд-инфраструктуру, которая переваривает миллионы обновлений в сутки без деградации latency.Это история о том, как в эпоху, когда традиционный полнотекстовый поиск бессилен перед лаконичностью пользователей, ему на помощь приходит машина, обученная на изображениях и языке.
Как дообучать локальные LLM в 2026 году: практическое руководство
В 2026 году возможность дообучения локальных LLM стала реальной опцией для отдельных разработчиков и небольших команд. Это стало возможным благодаря снижению требований к видеопамяти (VRAM), развитию инструментов и расширению набора базовых моделей с открытыми лицензиями.
Оптимизация параметров языковой модели на основе графа со-встречаемости слов: когда больше — не значит лучше
В последние годы мы привыкли, что прогресс в NLP измеряется гига- и терабайтами параметров. Кажется, единственный путь к улучшению качества модели — увеличение ее размера. Но так ли это для специализированных задач?Мы решили пойти от обратного: можно ли заранее, еще до обучения, понять, насколько большой должна быть модель, чтобы эффективно решать конкретную задачу классификации?
Мультиагентный хаос: как мы собрали команду AI-сотрудников, а получили бесконечное совещание ни о чем
Введение. Ложное обещание мультиагентностиВ 2026 году каждый второй стартап обещает заменить команду разработчиков роем AI-агентов. Звучит как мечта уставшего тимлида: один агент пишет код, второй ревьюит, третий деплоит, четвертый отвечает на вопросы в Slack, а пятый, наверное, уже сам заказывает пиццу в офис. Никаких больничных, никаких «я не успеваю», только железная продуктивность 24/7.
Одна идея в десяти обёртках от LLM
Почему нейросеть думает одинаково восемь раз подряд — и как вытащить её из этой петли одной строчкой в системном промптеТы просишь Claude придумать несколько заголовков для статьи . Читаешь — и понимаешь, что это один заголовок в десяти обёртках. Меняются слова, порядок, двоеточия, суть — одна.Пишешь «сделай разнообразнее», становится чуть лучше: появляются варианты с цифрами, с вопросом, с кейсом. Но если присмотреться, тематически всё крутится вокруг тех же двух-трёх зацепок. Разнообразие получилось декоративным.

