llm.
Цифровой двойник за один JSON и без промптов
Наша полная когнитивная архитектура ENA - слоёный пирог: память, внутренние метрики, динамика состояний, контекст тела, история травм, цели, маски, защита, самосознание, вот это всё. Круто для корпораций, но сложно для обычных людей. Поэтому мы сделали то, что делают нормальные люди с задачами: взяли и срезали тонкий, но полезный слой. Только мышление. Только то, как человек: сам видит себя себя; принимает решения; относится к риску и ошибкам; каким тоном разговаривает и что для него табу.
Вайбкодим с плагином Kilo Code в VS Code и IntelliJ IDEA из России
В новой статье от команды AI for Devs разбираемся, как организовать вайб-кодинг с плагином Kilo Code в VS Code и IntelliJ IDEA из России. Пошагово настраиваем Kilo Code через RouterAI, подключаем Claude, GPT, DeepSeek и другие модели, разбираем роли агента, diff-патчи, правила проекта и нюансы работы с контекстом.В этой статье разберем плагин для вайб-кодинга Kilo Code. Плагин подходит для работы в VS Code, Cursor и IntelliJ IDEA (а также для всех производных IDE от JetBrains: PyCharm, WebStorm, PhpStorm, RubyMine, GoLand, Rider, CLion, DataGrip, Android Studio, GigaIDE и OpenIDE).Мы интегрируем инструмент Kilo Code с агрегатором моделей RouterAI
Запускаем LLM на iPhone локально — мой опыт с Gemma 2B
ВведениеДолгое время меня мучал вопрос - возможно ли запустить ИИшку у себя на телефоне, и если да, то какую. Я уверен, что об этом думали многие, но не понимали смысла, зачем тратить время на такого рода занятия. Чтож, я не выдержал и сделал мини-приложение, которое запускает Qwen / Gemma модель и общается с вами без доступа в интернет. Задачи минимум: 1. Развернуть модель ИИ у себя на iPhone2. Навайбкодить приложение, где можно общаться ИИ без доступа в интернет 3. Замерить потребление ресурсов моего iPhone во время работы с приложениемЧто получилось в итогеiPhoneLLM
В llama.cpp добавили функцию для динамического переключения моделей без перезагрузки сервера
Разработчики llama.cpp добавили поддержку router mode — режима, с помощью которого можно динамически загружать, выгружать и переключать несколько моделей без перезагрузки сервера. В блоге Hugging Face отмечают, что чаще всего пользователи просили реализовать именно эту функцию.
Мороз по коже: LLM может оценить ваш код, а ИИ-компании — использовать это в своих целях
ИИ может оценить вашу гениальность, а его владельцы использовать её в своих целяхЛичный опыт: когда ИИ оценил гениальное ноу-хау
От вайб-проверок к регрессии: зачем LLM-фичам нужны quality gates в CI
На демо всё выглядит нормально. Промпт аккуратный, ответы связные, JSON парсится, никто не задаёт вопросов. Несколько прогонов спустя — всё ещё работает. Релизим.
Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация
Всем привет! Меня зовут Щепетков Константин, я TeamLead бэкенда мобильного приложения Бургер Кинг.
RAG своими руками: как мы собрали ИИ‑помощник для поддержки и что из этого вышло
Привет, Хабр! Меня зовут Илья Парамошин, я ведущий инженер в МТС Web Services. В первой части

