llm.
Как мы встроили LLM в Data Quality и не потеряли контроль
Привет, Хабр! Меня зовут Макунина Арина, я аналитик и инженер данных в Just AI. Наша команда аналитики обожает, чтобы рутина в данных была максимально предсказуемой. Если что-то ломается, то должно быть понятно что, где, почему и что делать дальше. Когда мы поработали с Data Quality в продакшене, выяснилось, что правила качества сами по себе есть базовый минимум, но время утекает в две черные дыры.Первая — это эффект белого листа.
Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака
Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp.Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно.Железо и ожиданияМоя конфигурация:GPU: RTX 4070 12GB VRAMRAM: 32GB DDR4CPU: 12 физических ядерOS: Windows 11 + WSL2 (Ubuntu)
AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает
22 февраля 2026 года, где-то около полудня по Москве. Автономный AI-агент по имени Lobstar Wilde, построенный на фреймворке OpenClaw и запущенный инженером OpenAI Ником Пашем, сидит в X и отслеживает сигналы для торговли криптой. Задача в целом простая: превратить $50 000 стартового капитала в миллион и попутно вести публичный дневник своего похода.Под одним из постов агента появляется сообщение от случайного пользователя. Текст мелодраматичный: дяде срочно нужно лечение столбняка, просим 4 SOL, вот адрес кошелька, помогите. Это примерно $400 по рыночной цене.
Как получать эффект от ИИ, когда нет железа
Вы уверены, что для внедрения корпоративного ИИ в закрытом контуре нужны суперкомпьютеры? Мы решили проверить и добиться вменяемого качества от крошечной модели в максимально жестких условиях:CPU вместо GPU;закрытый контур.Кейс – научить крошечную модель LLM отвечать на вопросы по программе газификации РФ.В статье: пошаговый разбор, код LLLaMBA для автоматизации бенчмарка и готовые конфиги. Повторите эксперимент на своих данных!
Экономика LLM-инференса: почему ваш финдир должен знать разницу между Prefill и Decode
В 2025 году рынок корпоративного ИИ-инференса составил ~100 миллиардов долларов. Но парадокс в том, что успех автоматизации бизнес-процессов с помощью LLM зависит не только от выбора модели, а от глубокого понимания двух принципиально разных этапов работы нейросети: Prefill и Decode. Игнорирование их различий — самая дорогая ошибка в AI-инфраструктуре, которая может исказить реальную стоимость запроса в 10-50 раз.Два подхода для обработки одного запроса
Mythos и реальность
Недавно все мы услышали громкое заявление Anthropic «наша модель Mythos очень опасна из-за своих хакерских способностей». Когда (пока) к модели нет массового доступа, человечеству сложно проверить, как все обстоит на самом деле, а хайп разгонял ряд событий:в США и Великобритании прошли экстренные совещания в банковском секторе о том, как действовать в новых реалиях;OpenAI представили свой «вариант для кибербезопасности» GPT‑5.4‑Cyber;а сервис cal.com заявил, что из опенсорсного станет закрытым, потому что обеспечивать безопасность открытого кода теперь слишком сложно.
Как научить Claude Code работать с вебом и не сжигать на этом лимиты
Попросить LLM-агента типа Claude Code "сходи в интернет и собери мне данные" - это как играть в казино. Иногда везет, и ты получаешь то что искал. А иногда сжигаешь половину дневного лимита на двух сайтах, упираешься в антибот защиту и в итоге получаешь кашу из тегов вперемешку с куском нужного контента.
Коммодитизация LLM
Об авторе: Джеффри Мур (Geoffrey Moore) — легенда в мире технологий, тот самый автор “Пересекая пропасть” (Crossing the Chasm), книги, которая десятилетиями учит стартапы переходить от энтузиастов к массовому рынку.
Cloudflare подвела итоги Agents Week 2026: что выкатили для агентных систем
Cloudflare опубликовала сводный анонс по итогам Agents Week 2026 — недели, целиком посвящённой инфраструктуре для ИИ-агентов. В центре внимания оказался не один продукт, а целый набор компонентов: среда выполнения, безопасность, инструменты для памяти и поиска, средства вывода в прод и задел под так называемый agentic web — веб, в котором заметную долю трафика и действий создают уже не люди, а агенты.

