Экспериментальная система skills в OpenAI Codex: как агент учится пользоваться инструментами
В Codex появилась экспериментальная фича — skills: декларативное описание локальных «навыков» агента с автоматическим discovery и строгими правилами применения. В статье разберём, как это работает под капотом, зачем нужно и как использовать это в своих проектах.
Лучшие практики для бизнеса из профессионального спорта. Часть 2: Скорость мышления. Элита тянется к элите
В новой части цикла статей «что взять бизнесу из профессионального спорта» (часть 0, часть 1) речь пойдет про скорость мышления и скорость принятия решений – вещь, которую я пытаюсь вдолбить рашнбизнису уже несколько лет, и очевидно, надо продолжать вдалбливание, потому что с той стороны нет ни осознания проблемы, ни попыток подхода к снаряду. А те, кто это осилили, по странному стечению обстоятельств являются либо крупным бизнесом, либо одним из лидеров в своей рыночной нише. Попутно будет разобрана далеко не всем очевидная тема
ИИ в разработке: почему иногда «в три раза быстрее» не означает «проект раньше»
Привет, Хабр!Недавно собрались с коллегами в эфире ТГ канала для разработчиков обсудить то, что сейчас волнует, кажется, каждого в индустрии — ИИ-инструменты в разработке. Не абстрактно «что думаете про ChatGPT», а конкретно: что реально работает, что нет, и почему при всём хайпе проекты не стали выходить быстрее.Получилась хорошая дискуссия с Алексеем Цыкаревым (Spectr), Виталием Поповым («Софтлайн Решения»), Ярославом Янгалычевым (ТИМ ФОРС), Романом Смирновым («Девелоника»), Олегом Елмановым (Fusion), Владиславом Кудиновым (VeAI) и мной от «Диасофта».
Мороз по коже: LLM может оценить ваш код, а ИИ-компании — использовать это в своих целях
ИИ может оценить вашу гениальность, а его владельцы использовать её в своих целяхЛичный опыт: когда ИИ оценил гениальное ноу-хау
Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация
Всем привет! Меня зовут Щепетков Константин, я TeamLead бэкенда мобильного приложения Бургер Кинг.
LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга
Большие языковые модели часто используют как один большой "мозг": написал промпт, нажал Enter - и сразу запускаешь сгенерированный код. Быстро, удобно и наполненно магией. Такой подход можно называть вайб-коддингом.Для разовой или несложной задачи это еще ок, а вот для полноценной продуктовой разработки уже достаточно спорно: архитектура, тесты, ревью и релизы не очень хорошо ложатся на слабо предсказуемый код, который генерирует ИИ.В этой статье я покажу, как относиться к LLM не как к "герою-одиночке", а как к команде ролей
Заблуждения обывателей о разработке через ИИ. Мнение разработчика
Меня зовут Александр, я fullstack разработчик с 20+ годами опыта (php+js+golang и всякое по-мелочи). Количество мифов и заблуждений о разработке через ИИ превысило, на мой взгляд, все разумные пределы. Я хотел бы порассуждать о причинах таких заблуждений.Типичные заблуждения не-разработчиков звучат так:"ИИ вот-вот заменит почти всех разработчиков, они станут не нужны" "С помощью ИИ я могу создать свой гугл, ура!" "ИИ без проблем решает любые задачи уровня Junior и иногда даже Middle"...и тому подобное...
Управление проектами: дайджест публикаций #47
Структура дорожной карты, гайд по скрамбану, аналоги джиры, диаграмма Венна, убивающий таск-трекер, работа с синдромом самозванца, как понять, что хочет заказчик, и всё интересное, что писали за последние 2 недели про управление проектами. Мы прочитали все публикации и выбрали для вас самые крутые и полезные. Читайте, сохраняйте и применяйте!Расширенные дайджесты, новости, обзоры книг и курсов для РП и аналитиков — в моем канале «Проектный дайджест», а теперь ещё и в удобной базе знаний
В проекте GNOME запретили разработчикам использовать ИИ для генерации дополнений к GNOME Shell
Команда проекта GNOME добавила в правила разработки дополнений к GNOME Shell отдельный
Более 10 тысяч образов Docker Hub содержат утечки учётных данных и ключей аутентификации
Исследователи безопасности из компании Flare выяснили, что 10 456 образов контейнеров Docker Hub раскрывают информацию, которая должна быть защищена. Она включает учётные данные для доступа к производственным системам, базам данных CI/CD или ключи моделей LLM.

