llm.
Промпт-инжиниринг 2026: что устарело с приходом reasoning-моделей
Полгода назад взял старый промпт. Тот самый, отлаженный за два года — с развёрнутым chain-of-thought, тремя few-shot примерами, ролью «опытного инженера с 15 лет опыта», пошаговой схемой рассуждения. Запустил на reasoning-модели в режиме высокого мышления.Результат — хуже, чем у минимального промпта.Минимальный промпт был тупой: вход, ожидаемый формат вывода, одно ограничение. Без героики. И он выиграл.Тогда я понял: половина моего арсенала, накопленного на GPT-4 и Claude 3.5, против reasoning-моделей работает плохо. Что-то откровенно вредит. Что-то стало лишним. А что-то — что я делал по остаточному принципу — наоборот, теперь важнее всего.
Пузырь ИИ лопается: почему 95% пилотов не доходят до продакшна
Жемал Хамидун · Head of AI Alpina Digital, CPO AlpinaGPTВ апреле 2026 года мы провели конференцию
Как я Zabbix с LLM дружил в свободное время. Архитектурный обзор взаимодействия с нейросетью. Часть 2 «Выбор модели»
ВведениеУ котика есть не только лапки
Как я сделал AI-директора для малого бизнеса и почему отказался от RAG
Уровень: senior backend, AI/ML Стек: FastAPI, SQLite, Claude Haiku 4.5, кастомный scheduler Что внутри: архитектура AI-агента для команды 5-50 человек, типизированная память вместо vector RAG, граф знаний организации, ежедневный reflectionЧто такое Лира на пальцахМаленькая компания, человек 20. Гендир тонет в задачах. Помнить кто что обещал, отслеживать движение по целям, держать в голове десяток проектов одновременно. У больших корпораций для этого есть штат руководителей среднего звена и проджектов. У малых есть один директор, который пытается быть всем сразу.
1 миллион токенов в Opus 4.7 — маркетинг. Реально полезных — 300 тысяч. И сами Anthropic это подтверждают
В начале мая Кангвук Ли (CAIO Krafton) опубликовал в X разбор: двумя API-вызовами и 35 строками Python он вытащил из Codex AES-зашифрованный compaction-blob и реконструировал серверный промпт сжатия контекста. Тот оказался почти идентичен открытому промпту Codex CLI, который лежит в репозитории openai/codex в prompt.md и summary_prefix.md. Сам Ли в финале признаётся: ожидал найти «секретный соус», нашёл — почти то же, что в опенсорсе.Параллельно с этим у Anthropic с января 2026 живёт public beta серверной компакции compact_20260112
Почему spec-driven development плохо работает на микросервисах: часть 1. Где теряется контекст
Первая статья из цикла из трёх частей.Часть 1 — где LLM теряет межсервисный контекст и почему локальных спек недостаточно.
Почему бенчмарки в AI сломались — и что с этим делать в понедельник
В январе 2026 года Янн Лекун, уходя из Meta, сказал в интервью Financial Times про релиз Llama 4: «The results were fudged a little bit» (Fast Company, 6 января 2026). Команда показывала на LMArena одну версию модели, в продакшен ушла другая. На бенчмарке всё было правильно. В реальности код был хуже DeepSeek V3.Я хочу разобрать эту историю. Не потому что Meta — исключение. Потому что они — симптом.TL;DR.
Я держу 4 Claude-инструмента в работе. HBR говорит, что у таких brain fry. Я был среди них
После моей статьи про Lexis (AI-репетитор на 4 LLM-провайдерах) у меня стали спрашивать: Как ты не выгорел?. Я отвечал так: 4 провайдера - это для пользователей, для разработки я использую Claude.Месяц спустя я перечитал свой ответ и понял, что он наполовину правда. На разработку я тоже использую четыре инструмента: Claude Code (для кода), Claude Cowork (для документов и контента), Claude Design (попробовал для лендингов) и обычный chat.claude.ai для быстрых вопросов. Параллельно у меня лежит OpenAI API-ключ для тестов. Сейчас я думаю подключить пятый - Codex в связке с Claude за $40/месяц.
Ollama и Open WebUI на VPS без GPU: рабочий вариант или боль?
Ollama и Open WebUI на VPS без GPU: рабочий вариант или боль?
Когда «просто проведи кастдев» — худший совет
Нет клиентов, времени или денег — а стратегия нужна вчера? Бывают ситуации, когда полноценное дискавери просто невозможно. Кейс о том, как я из этого выбрался, и все промпты внутри.Ой-бойцовский клуб, надо ж такое знать-то

