OpenAI выпустили GPT-5.2-Codex
GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах
Настраиваем ИИ-помощника бесплатно и без вендорлока в IntelliJ IDEA, GoLand, WebStorm, OpenIDE и GigaIDE
За последние пару лет IDE реально встряхнуло: к подсказкам и рефакторингам добавились AI-ассистенты a.k.a. Агенты. Они дописывают код, предлагают варианты решений, генерируют тесты и умеют “переводить” чужой legacy на человеческий. Теперь почти в каждой IDE есть кнопка «спросить у модели» — и разработчик больше не один на один с редактором.
10% на LLM и 90% на инженерию: как российские компании используют ИИ
Привет, Хабр!Продолжаю делиться материалами живых дискуссий, которые идут на телеграм-канале Dev Q&A. На этот раз тема — выбор между open source и коммерческими LLM для корпоративных задач. Получилось собрать практиков, которые каждый день решают эту дилемму: Андрея Кувалдина («Транссеть»), Сергея Олькова («Диасофт»), Максима Семёнкина (CodeInside), Артема Панькова (Secret Agents), Владислава Кудинова (Veai), Константина Глазкова (СП.АРМ), Лорана Джейкобса (iPavlov AI-Systems) и Виталия Попова («Софтлайн Решения»).
ИИ в разработке: почему иногда «в три раза быстрее» не означает «проект раньше»
Привет, Хабр!Недавно собрались с коллегами в эфире ТГ канала для разработчиков обсудить то, что сейчас волнует, кажется, каждого в индустрии — ИИ-инструменты в разработке. Не абстрактно «что думаете про ChatGPT», а конкретно: что реально работает, что нет, и почему при всём хайпе проекты не стали выходить быстрее.Получилась хорошая дискуссия с Алексеем Цыкаревым (Spectr), Виталием Поповым («Софтлайн Решения»), Ярославом Янгалычевым (ТИМ ФОРС), Романом Смирновым («Девелоника»), Олегом Елмановым (Fusion), Владиславом Кудиновым (VeAI) и мной от «Диасофта».
Учимся правильно использовать ИИ при разработке программного обеспечения
Недавно написал статью о проблемах использования ИИ (Иллюзии Интеллекта) при разработке программного обеспечения / Хабр, и решил не ждать у моря погоды, когда (и если) провайдеры исправят ситуацию на своей стороне, а попытаться самостоятельно выработать приемлемый алгоритм работы с ИИ, который был бы экономически выгодным и целесообразным при разработке ПО хотя бы лично для меня.Данная статья - это очередной Хабрахак
Галлюцинации ИИ — это не баг, а фича разработчика. Почему вайб-кодинг не заменит программистов
Привет, Хабр!Знаете, что общего у ChatGPT, моего студенческого кода в три часа ночи и выступлений некоторых экспертов? Все они периодически галлюцинируют. Разница только в том, что от ИИ мы почему-то ждём идеальной точности, а от людей — нет.Недавно провели стрим, где собрались специалисты, у которых ИИ не в презентациях, а в production: Сергей Спиренков (KODE), Александр Константинов (Cloud.ru), Михаил Ларкин (Сбер, ВТБ, S7), Иван Будник (ИИ-стартапы, e-commerce) и Константин Чуйков (Vibe Coding Community). Провели разговор про галлюцинации моделей и про будущее разработки с ИИ.
Бизнесы и их сайты пока не готовы к тому, что уже происходит с поисковой выдачей: AI SEO (GEO) как новая реальность
Недавно мы провели первую на российском диджитал-рынке GEO-прожарку. Формат не новый, но вот продукт… Новый, непонятный и мало исследованный — поэтому мы взяли на вооружение и углубились в него.
OpenAI обучила модели «признаваться» в плохом поведении
OpenAI тестирует ещё один способ раскрыть сложные процессы, происходящие в больших языковых моделях. Исследователи компании экспериментируют с манипуляциями LLM, чтобы те объясняли, как выполнили задачу, и признавались в нежелательном поведении.
InfoFlood: как информационная перегрузка превращается в универсальный джейлбрейк для LLM
В июне этого года на arXiv вышла работа «InfoFlood: Jailbreaking Large Language Models with Information Overload» В исследовании авторы обнаружили новую уязвимость в системах безопасности больших языковых моделей: когда вредоносный запрос перегружается сложной лингвистической структурой, фильтры безопасности перестают его распознавать, хотя сама модель продолжает понимать суть и выдаёт вредоносный ответ.

