Программирование. - страница 30

Генеральный директор Stack Overflow: появление ChatGPT стало «экзистенциальным моментом» для компании

Генеральный директор Stack Overflow Прашант Чандрасекар дал большое интервью

продолжить чтение

Андрей Карпаты: итоги LLM-экосистемы за 2025 год

Команда AI for Devs подготовила перевод обзорной статьи о ключевых сдвигах в развитии LLM в 2025 году. Андрей разбирает, почему Reinforcement Learning from Verifiable Rewards стал новой базовой стадией обучения, откуда взялся «рваный интеллект», как появился новый слой LLM-приложений и почему ИИ всё чаще «живёт» прямо на компьютере разработчика.2025 стал насыщенным и очень сильным годом прогресса в области LLM. Ниже — список лично для меня наиболее заметных и в какой-то мере неожиданных «смен парадигмы» — вещей, которые изменили ландшафт и концептуально выделились.1. Reinforcement Learning from Verifiable Rewards (RLVR)

продолжить чтение

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение

OpenAI выпустили GPT-5.2-Codex

GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах

продолжить чтение

Экспериментальная система skills в OpenAI Codex: как агент учится пользоваться инструментами

В Codex появилась экспериментальная фича — skills: декларативное описание локальных «навыков» агента с автоматическим discovery и строгими правилами применения. В статье разберём, как это работает под капотом, зачем нужно и как использовать это в своих проектах.

продолжить чтение

Настраиваем ИИ-помощника бесплатно и без вендорлока в IntelliJ IDEA, GoLand, WebStorm, OpenIDE и GigaIDE

За последние пару лет IDE реально встряхнуло: к подсказкам и рефакторингам добавились AI-ассистенты a.k.a. Агенты. Они дописывают код, предлагают варианты решений, генерируют тесты и умеют “переводить” чужой legacy на человеческий. Теперь почти в каждой IDE есть кнопка «спросить у модели» — и разработчик больше не один на один с редактором.

продолжить чтение

Образование и индустрия IT. Лично мое мнение по поводу образования как студента из Универа

Сфера IT развивалась семимильными шагами с 1990-ых годов. Разработка приложений и их поддержка не была на столь высоком уровне, но техническая сложность приложений была неоправданная высокая, что давало определенный барьер для попадания на профессии даже близкими к IT. Профессия разработчика была унифицирована и расплывчата на множество профессий. Именно поэтому компании в те годы были мотивированы обучать специалистов напрямую вышедших из ВУЗов с техническим образованием.

продолжить чтение

Google выпустили Gemini 3 Flash — frontier-интеллект со скоростью Flash и ценой ниже рынка

Gemini 3 Flash — новая модель в линейке Gemini 3, которая сочетает Pro-уровень reasoning с минимальной задержкой и агрессивной оптимизацией по стоимости.

продолжить чтение

10% на LLM и 90% на инженерию: как российские компании используют ИИ

Привет, Хабр!Продолжаю делиться материалами живых дискуссий, которые идут на телеграм-канале Dev Q&A. На этот раз тема — выбор между open source и коммерческими LLM для корпоративных задач. Получилось собрать практиков, которые каждый день решают эту дилемму: Андрея Кувалдина («Транссеть»), Сергея Олькова («Диасофт»), Максима Семёнкина (CodeInside), Артема Панькова (Secret Agents), Владислава Кудинова (Veai), Константина Глазкова (СП.АРМ), Лорана Джейкобса (iPavlov AI-Systems) и Виталия Попова («Софтлайн Решения»).

продолжить чтение

Трактор без тракториста: почему разработка не упрощается при наличии современных инструментов

Привет, Хабр!Продолжаю делиться дискуссиями из нашего телеграм-канала Dev Q&A. На этот раз собрались поговорить о том, почему при всём богатстве инструментов — Kubernetes, CI/CD, low-code, AI-ассистенты — разработка не становится ни быстрее, ни дешевле. Компанию мне составили: Андрей Почтов (СТО АЭРО), Руслан Остропольский (Test IT), Алексей Каньков (Revizto), Антон Новожилов (mrnet), Генри Бабенко (Tech Lead), Яна Шакленина (Outlines Tech) и Алексей Граков (Agizo). 

продолжить чтение

Rambler's Top100