Сравнение нейросетей в генерациях: Claude vs ChatGPT vs Gemini в различных сферах
Новые модели выходят практически каждый день. За последние два месяца мы увидели релизы от Qwen, OpenAI, Anthropic и Google. Очень ждали DeepSeek, но его пока не слышно и не видно.В своих прошлых материалах я сравнивал последние версии моделей крупных компаний в конкретных сферах: программирование и генерация текста.Сегодняшняя статья продолжит этот цикл. По-хорошему, этот материал должен был выйти до сравнений в узких сферах, потому что сегодня я планирую сравнить Gemini 3.1 Pro, ChatGPT 5.4 и Claude Opus 4.6 сразу в ��ескольких дисциплинах. Сделать, так сказать, общее сравнение.
ChatGPT 5.4 Pro: обзор, бенчмарки, сравнение
Помните, как пару лет назад мы восхищались тем, что нейросеть может написать связный абзац? А год назад – что она осилила код без синтаксической ошибки? Сегодня планка взлетела так высоко, что уникальные способности моделей превращаются в стандартный пакет услуг.
Что больнее OT или CRDT в совместном редактировании? И почему до сих пор нет идеала?
Привет, Хабр!Меня зовут Антон Леонтьев, я старший разработчик в команде ядра редакторов МойОфис
Anthropic временно удвоили лимиты Claude — и для нас это почти весь день
https://support.claude.com/en/articles/14063676-claude-march-2026-usage-promotionС 13 по 27 марта 2026 у Claude действуют двойные лимиты
Халява уходит из разработки Агентов
Сегодня каждый норовит написать универсального агента и объявить это революцией. Рынок переполнен поделками вроде OpenClaw и его клонов: IronClaw, ZeroClaw, MicroClaw, NullClaw, GitClaw, AstrBot, GripAi, Moltis...Все идут одной и той же дорогой: используют готовые MCP и дают агентам shell-оболочку. Да, это легко собрать. Да, весело. Можно хайпануть в соцсетях. Но это тупиковый путь.В статье разберем все грехи status quo и предложим другой подход, более требовательный к компетенциям в области разработки ПО.Если вы не знаете, что такое агент, могу порекомендовать первый раздел Пишем агента на Kotlin: KOSMOS.
Слепое пятно LLM-разработки: контекст за пределами кода
Качество работы LLM — функция от качества контекста на входе. Это утверждение звучит банально, однако зачастую разработчики оптимизируют модель, выбирая между GPT, Claude, Gemini и прочими, и промпт, но не контекст в целом
8 уровней агентной инженерии
Способности AI в написании кода растут быстрее, чем наше умение этими способностями пользоваться. Поэтому рост баллов на SWE-bench не коррелирует с метриками продуктивности, которые волнуют инженерных руководителей. Когда команда Anthropic выкатывает продукт вроде Cowork за 10 дней, а другая команда не может довести до ума сломанный POC на тех же моделях, разница в одном: первые закрыли разрыв между возможностями моделей и практикой, вторые — нет.
Запускаем LLM на AMD RX580: разбор проблем ROCm, Ollama и реальный GPU inference
TL;DRМы пытались запустить LLM inference на старой AMD RX580 (8 VRAM) через ROCm в Kubernetes. GPU корректно определялся, VRAM использовалась, но inference падал с ошибками вида:hipMemGetInfo(free, total) CUDA error: invalid argumentПосле серии экспериментов с ROCm userspace, Docker‑образами и Kubernetes deployment выяснилось, что проблема лежит на границе:kernel → ROCm runtime → ggml backendФинальное решение включало:переход на kernel 6.8стабилизацию ROCm runtimeиспользование llama.cpp + ROCmgrammar‑constrained decoding для strict sanity promptsВ итоге мы получили стабильный GPU inference:~42 токен/секgpu_busy_percent → до 100%

