llm. - страница 45

llm.

Андрей Карпаты: итоги LLM-экосистемы за 2025 год

Команда AI for Devs подготовила перевод обзорной статьи о ключевых сдвигах в развитии LLM в 2025 году. Андрей разбирает, почему Reinforcement Learning from Verifiable Rewards стал новой базовой стадией обучения, откуда взялся «рваный интеллект», как появился новый слой LLM-приложений и почему ИИ всё чаще «живёт» прямо на компьютере разработчика.2025 стал насыщенным и очень сильным годом прогресса в области LLM. Ниже — список лично для меня наиболее заметных и в какой-то мере неожиданных «смен парадигмы» — вещей, которые изменили ландшафт и концептуально выделились.1. Reinforcement Learning from Verifiable Rewards (RLVR)

продолжить чтение

Виды Structured Output и способы их реализации

Structured Output это способ “заставить” модель отвечать в строго заданном формате.Пример. Имеется пачка неструктурированных объявлений о продаже недвижимости.Продается однокомнатная квартира площадью 35,6 кв.м. на 11-м этаже 22-этажного монолитного дома по адресу: ул. Академика Королёва, 121. Год постройки — 2018, что гарантирует современное качество и надёжность конструкции. Дом оснащён подземной парковкой.

продолжить чтение

Общалкин «Разогрев-Деловой-Боевой»

Несколько лет назад в сети ходила история про парня, который натравил ИИ на Tinder: бот общался с девушками, переводил их в Telegram, а дальше человек подключался сам. Тогда это выглядело как эксперимент на грани фантастики - слабый ИИ, отсутствие нормальных инструментов автоматизации, куча ручной работы и рисков. Сейчас ситуация принципиально другая: LLM держат контекст, автоматизация через n8n и браузерные сценарии решает рутину, интеграции стали дешевле и стабильнее. То, что раньше было хаком, сегодня — инженерная задача.

продолжить чтение

Мебельный гвоздь в крышку гроба AGI

Все мы слышали, что нейросети уже решают сложнейшие олимпиадные задачи по математике, пишут код лучше людей и вообще «кожаным мешкам» осталось недолго. Но есть нюанс. Если задача похожа на то, что было в датасете, они её решат. Если же задача требует построения геометрической модели и физической интуиции, отличается от типичных моделей из задачников — начинается «галлюцинаторный цирк».

продолжить чтение

Исследователи из MIT и IBM предложили новый подход к расширению возможностей LLM

продолжить чтение

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение

OpenAI выпустили GPT-5.2-Codex

GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах

продолжить чтение

Экспериментальная система skills в OpenAI Codex: как агент учится пользоваться инструментами

В Codex появилась экспериментальная фича — skills: декларативное описание локальных «навыков» агента с автоматическим discovery и строгими правилами применения. В статье разберём, как это работает под капотом, зачем нужно и как использовать это в своих проектах.

продолжить чтение

Настраиваем ИИ-помощника бесплатно и без вендорлока в IntelliJ IDEA, GoLand, WebStorm, OpenIDE и GigaIDE

За последние пару лет IDE реально встряхнуло: к подсказкам и рефакторингам добавились AI-ассистенты a.k.a. Агенты. Они дописывают код, предлагают варианты решений, генерируют тесты и умеют “переводить” чужой legacy на человеческий. Теперь почти в каждой IDE есть кнопка «спросить у модели» — и разработчик больше не один на один с редактором.

продолжить чтение

Как превратить сценарного чат-бота в умного бота на основе ИИ

Привет, Хабр! На связи Иван Жирнов и Степан Рыбалов, тимлид и QA группы разработки чат-ботов в компании «Передовые Платежные Решения». В работе мы используем ботов собственной разработки. До AI-революции чат-боты были сценарные и весьма ограниченные. С нейросетями же их возможности стали головокружительно шире. В этой статье мы расскажем о том, как и зачем перешли на чат-ботов с ИИ, чтобы наш опыт мог помочь в проекте и вам.

продолжить чтение

Rambler's Top100