Запускаем LLM на AMD RX580: разбор проблем ROCm, Ollama и реальный GPU inference
TL;DRМы пытались запустить LLM inference на старой AMD RX580 (8 VRAM) через ROCm в Kubernetes. GPU корректно определялся, VRAM использовалась, но inference падал с ошибками вида:hipMemGetInfo(free, total) CUDA error: invalid argumentПосле серии экспериментов с ROCm userspace, Docker‑образами и Kubernetes deployment выяснилось, что проблема лежит на границе:kernel → ROCm runtime → ggml backendФинальное решение включало:переход на kernel 6.8стабилизацию ROCm runtimeиспользование llama.cpp + ROCmgrammar‑constrained decoding для strict sanity promptsВ итоге мы получили стабильный GPU inference:~42 токен/секgpu_busy_percent → до 100%
Воякс — аналитик ИИ-автоматизации
Woyax AI Process Auditor — ИИ-агент для автоматического аудита бизнес-процессов. Бот проводит серию интервью с сотрудниками компании через мессенджер, выявляет рутину и узкие места, извлекает структурированные инсайты и формирует отчёт с рекомендациями по ИИ-автоматизации. No-code AI-агент на базе n8n, RAG, Qdrant и нескольких LLM-провайдеров — построенный на одном VPS в Docker Compose.
Я просто хотел, чтобы код от Claude не поломался через месяц. Пришлось сделать runtime для воспроизводимости AI-кода
Три месяца назад я попросил Claude написать мне Express API. Два эндпоинта, тесты, стандартная скука. Через 40 секунд всё работало. npm test — зелёное. Я закрыл терминал и пошёл спать с ощущением человека, который живёт в будущем.Через 28 дней я открыл этот проект. npm test — красное. Express обновился. Jest поменял поведение. Lockfile уехал. Код, который писал не я, сломался по причинам, которые не имели отношения к коду.Я сделал то, что делают все: попросил Claude написать заново. Он написал. Другой код. Другая структура. Другие баги. Тесты прошли. Через две недели сломались снова.
OpenClaw (ex. Moltbot): Как безопасно запустить AI-агента в продакшен (Docker + VseLLM)
Тема автономных агентов переживает бурный рост. Возможность делегировать AI не просто генерацию текста, а полноценное выполнение задач — от написания кода до управления сервером — выглядит заманчиво. OpenClaw (ранее известный как Moltbot) к началу 2026 года стал де-факто стандартом в этой индустрии, предоставляя мощный инструментарий для создания цифровых сотрудников.
Как я решил вкатиться в Android разработку через вайбкодинг. Часть 2. Ну или разработка мобильного приложения через ИИ
автор Gemini nanobananaВ прошлой части я остановился на том что собрал свое приложение, наладил работу и залил в google play. Здесь будет не то чтобы полноценный гайд, скорее тот путь что я прошел и попытка получить опыт в написании статьи
Три агента, один репозиторий, ноль менеджеров. Как я построил конвейер, где ИИ пишет, ревьюит и деплоит код
Месяц назад я закинул задачу на рефакторинг модуля авторизации и пошёл варить кофе. Кофе я допить не успел. Через двадцать три минуты пришло уведомление в ТГ: «staging обновлён, 94 теста пройдено, 0 упало».Открыл репозиторий. Ветка, diff на два экрана. Code review от второго агента. Три замечания, два по делу. Третий агент прогнал тесты и задеплоил.Код был чище, чем я обычно пишу по пятницам.Но до этого момента были три месяца граблей, упавший продакшен, и одна ночь, когда агенты сделали десятки бесполезных коммитов. Обо всём по порядку.Один агент. Один мозг. Ноль сомнений
Один Dockerfile, два make-таргета и семинар, где студенты наконец пишут код
Я веду семинары по машинному обучению на ФКН ВШЭ. Чтобы понять, как работает градиентный спуск, нужно написать его руками. Чтобы разобраться, почему модель переобучается, нужно самому поковырять гиперпараметры, посмотреть, как меняются кривые обучения, попробовать регуляризацию. Лекция даёт интуицию, но интуиция закрепляется через эксперимент.И вот тут начинается проблема. Классический формат семинара: я стою перед аудиторией, пишу код, объясняю. Студенты смотрят. Кто-то конспектирует, кто-то фотографирует экран. Но не делает.Мне хотелось, чтобы семинар был не демонстрацией, а
Больше чем ядро: как пет-проект вырос в мультитенантную платформу для создания AI-агентов
СодержаниеПролог. Краткость - сестра таланта... Часть 1. Концепт Часть 2A. Вайб-кодинг: философия и инструменты Часть 2B. Вайб-кодинг: практика взаимодействия Часть 3. Архитектура: первый блин комом Часть 4. Релиз и фичи Часть 5. Закат и рассвет Часть 6. Мультитенантная архитектура Часть 7: Сценарии — декларативная магия Часть 8. Эволюция системы плагинов: от модулей к экосистеме
Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B)
В интернете огромное количество гайдов на тему транскрибации аудио и анализа совещаний через ИИ. Но все они описывают разрозненные решения: отдельно транскрибируй аудио, затем отправь в ChatGPT, и так далее.Я решил комплексно подойти к этому вопросу и навайбкодить веб-приложение, где все задачи решаются в одном окне, а именно:Хранение транскрипцийЧат с ИИ по содержимому встречиСтруктурированные протоколы (задачи, решения, события)Рекомендации ИИ на базе текущей и предыдущих встречИнтеграция с CRM в один клик (beta)

