llm.
Мой тимлид не пишет код 3 года. Почему он — лучший тимлид, с которым я работал
На Хабре любят хейтить менеджеров, которые «забыли, как кодить». Мол, оторвались от реальности, не понимают сроков, не чувствуют боль разработчика. Я раньше тоже так думал. А потом попал в команду к человеку, который три года не открывал IDE, и за полгода понял, что был неправ.Контекст: что было доДо Серёги (это нынешний тимлид) у нас был Андрей. Андрей — зверь в техническом смысле. Кодовую базу знал так, что мог в голове прокрутить стек вызовов уровней на пять. Каждый PR ревьюил лично. Сам писал кучу кода.И команда его в итоге ненавидела. Не сразу — сначала было восхищение, потом привыкание, потом тихое раздражение.
SkillsBench: скиллы дают реальный буст, но только если их писал человек
Исследователи сделали первый бенчмарк, который измеряет, помогают ли «скиллы» ИИ-агентам решать задачи. Его назвали SkillsBench.Skill — это, по сути, папка с инструкциями, скриптами и подсказками, которую агент читает перед тем, как приступить к задаче. Что-то вроде методички для конкретной предметной области. Такие скиллы уже активно используются в Claude Code, Gemini CLI и Codex CLI, но до сих пор никто систематически не проверял, работают ли они вообще.
Data Structure Protocol (DSP): как дать LLM-агентам «долговременную память» о большом репозитории
Есть паттерн, который видит кажд��й, кто работает с агентами: первые 5–15 минут уходят не на задачу, а на "ориентацию". Где точка входа? Откуда растут зависимости? Почему эта библиотека, а не другая? Кто считает это публичным API? В маленьком проекте раздражает. В большом — превращается в постоянный налог на токены и внимание.DSP (Data Structure Protocol) "выносит карту проекта наружу" — в простой, версионируемый, языковой граф, который живёт рядом с кодом и доступен агенту как постоянная память.k-kolomeitsev/data-structure-protocolЦель в архитектуре сформулирована так:
О дивный новый код
Продолжение моей статьи Мечтают ли архитекторы об электроовцах?, в которой я обещал привести практический пример.РезюмеОбычно начинают с начала, но я решил сразу представить итоги, от бизнес-идеи до запуска в продакшн, для тех, кто не любит вдаваться в подробности.Краткое описание сервисаСервис для генерации XML-файлов, содержащих информацию о заказах для бухгалтерии, работающий по расписанию.Основной рабочий процесс — запрашивает данные о заказе в БД, генерирует XML-файл и отправляет на FTP-сервер бухгалтерии.Шесть основных бизнес-сценариев генерации XML-файлов.
Управляем поведением LLM: краткосрочные профили и их ограничения
В предыдущей части статьи
Prompt injection для смелых духом: от zero-click атаки на 1.4B устройств до философского джейлбрейка
SQL-инъекцию мы лечили 20 лет и вылечили. Prompt injection — фундаментально нерешаема. Это не я придумал. OWASP ставит её на первое место второй год подряд. Найдена в 73% продакшн AI-систем при аудитах.Вы не за статистикой сюда пришли. Вы пришли за мясом. Ниже — 10 кейсов, которые не попали в типичный пересказ про Chevrolet за доллар. Тут пострашнее.
Распознавание изображений локальными LLM
Читая HABR, наткнулся на статью про мышление больших моделей и их способности распознавания изображений. И у меня возникла идея небольшого теста одной имеющейся у меня модели LLM, которая умеет распозновать фото, а именно llama4:16x17b НО запущенной полностью локально. Весит эта модель 67 гигабайт, если интересно на чем она была запущена отвечу в комментариях.На написание статьи меня подвинул один из комментариев - "а как интересно нейросеть распознает разные типы животных"
Gemini 3.1 Pro: Google выкатила новую «базовую» модель для сложных задач и агентных сценариев
Google продолжает прокачивать линейку Gemini и сегодня выкатила Gemini 3.1 Pro — модель, которую позиционируют как «базовую умную силу» для задач, где обычного ответа «вот ссылка / вот краткий совет» уже не хватает. Речь про многошаговые рассуждения, сведение данных в единую картину, объяснения сложных тем «с картинкой в голове» и генерацию более «инженерного» результата, а не просто текста. Неделю назад Google обновила Gemini 3 Deep Think
Разработчик за 20 минут сломал ChatGPT и ИИ-ответы Google, заставив их цитировать выдуманную историю
Журналист BBC и разработчик Томас Жермен показал

