Андрей Карпаты: итоги LLM-экосистемы за 2025 год
Команда AI for Devs подготовила перевод обзорной статьи о ключевых сдвигах в развитии LLM в 2025 году. Андрей разбирает, почему Reinforcement Learning from Verifiable Rewards стал новой базовой стадией обучения, откуда взялся «рваный интеллект», как появился новый слой LLM-приложений и почему ИИ всё чаще «живёт» прямо на компьютере разработчика.2025 стал насыщенным и очень сильным годом прогресса в области LLM. Ниже — список лично для меня наиболее заметных и в какой-то мере неожиданных «смен парадигмы» — вещей, которые изменили ландшафт и концептуально выделились.1. Reinforcement Learning from Verifiable Rewards (RLVR)
Виды Structured Output и способы их реализации
Structured Output это способ “заставить” модель отвечать в строго заданном формате.Пример. Имеется пачка неструктурированных объявлений о продаже недвижимости.Продается однокомнатная квартира площадью 35,6 кв.м. на 11-м этаже 22-этажного монолитного дома по адресу: ул. Академика Королёва, 121. Год постройки — 2018, что гарантирует современное качество и надёжность конструкции. Дом оснащён подземной парковкой.
OpenAI выпустили GPT-5.2-Codex
GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах
Как превратить сценарного чат-бота в умного бота на основе ИИ
Привет, Хабр! На связи Иван Жирнов и Степан Рыбалов, тимлид и QA группы разработки чат-ботов в компании «Передовые Платежные Решения». В работе мы используем ботов собственной разработки. До AI-революции чат-боты были сценарные и весьма ограниченные. С нейросетями же их возможности стали головокружительно шире. В этой статье мы расскажем о том, как и зачем перешли на чат-ботов с ИИ, чтобы наш опыт мог помочь в проекте и вам.
Google выпустили Gemini 3 Flash — frontier-интеллект со скоростью Flash и ценой ниже рынка
Gemini 3 Flash — новая модель в линейке Gemini 3, которая сочетает Pro-уровень reasoning с минимальной задержкой и агрессивной оптимизацией по стоимости.
Топ вопросов с NLP собеседований: трансформеры и внимание до малейших деталей
Знание механизма внимания и трансформеров - база любых собеседований на все грейды в NLP!Статья не рассчитана на изучение тем с нуля, если вы еще не слышали ничего про attention, то лучше обратиться к полноценным лекциям.Это чеклист и тренажёр, по которому стоит пройтись перед техническим интервью по NLP, чтобы закрыть пробелы и вспомнить необходимую базу.Содержание:Архитектура трансформераМеханизм вниманияПозиционные эмбеддингиТокенизацияТрансформерные архитектуры (BERT, GPT и тд)Полезные материалы
Microsoft: в феврале пользователи обращаются к ИИ Copilot за советами по отношениям, а по ночам беседуют о философии
Microsoft представила результаты анализа использования Copilot за 2025 год. Компания изучила 37,5 млн разговоров пользователей с чат-ботом и выяснила, о чём чаще всего шли беседы. Одной из ключевых тем стала тема здоровья: пользователи регулярно обращались к Copilot для отслеживания самочувствия и за советами по здоровому образу жизни. Этот тренд сохранялся круглогодично, отмечается, что чаще всего такие запросы направлялись с мобильных устройств.
OpenRouter выкатили огромное исследование: как реально используют LLM (анализ 100 трлн токенов)
В исследовании изучили 100 трлн токенов живого трафика через OpenRouter (300+ моделей, 60+ провайдеров, миллионы пользователей, до ноября 2025 года).Ключевые выводы 👇Open source закрепился на ~30% и привёл с собой Китай.Открытые модели стабильно держат около трети токенов. Особенно выросли китайские OSS (DeepSeek, Qwen, Kimi): с ~1–2% до до 30% трафика в отдельные недели, в среднем ~13%.
Гибридный подход к контексту: как сделать LLM-агентов быстрее и дешевле
Команда AI for Devs подготовила перевод статьи о том, как AI-агенты на базе LLM тратят лишние деньги из-за разрастающегося контекста и как простое маскирование наблюдений нередко работает лучше сложного LLM-суммирования. Авторы предлагают гибридный метод, который делает агентов дешевле и надёжнее без дообучения модели.

