Оффлайн агент IDE Continue за 15 минут
ОглавлениеВведениеЧто потребуетсяШаг 1: Установка OllamaШаг 2: Загрузка моделей (LLM + embed)Шаг 3: Установка IntelliJ IDEA и плагина ContinueШаг 4: Настройка config.yamlШаг 5: Индексация проекта и первый запускПример работы: генерация и вставка кодаЗаключениеВведениеЯ расскажу, как реализовать локального LLM, который будет генерировать текст, код, тесты и сам вставлять результат прямо в ваш проект, если это требуется.⚠️ Важно: это не полноценный «агент» в современном понимании (с планированием, памятью и т.д.). Но плагин
Автоматизация процессов на open source — n8n и Ollama
Привет, Хабр. Я бизнес-архитектор, в свободное от основной работы время занимаюсь обучением, а также автоматизацией учебного процесса на базе open source инструментов. В качестве инструмента автоматизации процессов я недавно начал применять сервис n8n. В этом материале я расскажу о собственной практике использования инструмента n8n, а также затрону возможности использования больших языковых моделей (LLM), установленных локально с помощью Ollama для создания AI-агентов в n8n. Почему n8n
«Старички» V100 в деле и модные ИИ-агенты для написания документации
Автор: Александр Казанцев, руководитель отдела документации и контента
Сегодня мы построим свою локальную модель на смартфоне. С блэкджеком и WebUI
Сегодня мы построим свою локальную модель. С блэкджеком и WebUI!Предыстория
AI для умного дома: что уже работает сегодня (часть 1)
В статье — не просто список инструментов, а как они сочетаются, какие подводные камни ждут при развёртывании, какие цифры можно ожидать по производительности и как обойти ограничения Llama 8B без облачных кредитов.1. Ollama — локальные LLMOllama запускает большие языковые модели на вашем сервере. Без облака, без API-ключей.Зачем в умном доме: понимание естественного языка. «Включи свет в гостиной» → модель извлекает намерение и сущность, можно передать в HA.Ресурсы:
Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 3: добавляем историю сообщений и контекст
Во второй части у нас получился уже не одноразовый скрипт, а маленький консольный чат: программа принимает вопрос, отправляет его модели, печатает ответ и ждёт следующего ввода.Но пока у этого чата есть важное ограничение: каждый новый запрос для модели почти независим.Если сначала спросить:Составь простой план изучения Python на 2 недели.а потом написать:Сделай его короче и оставь только самое важное.модель может ответить нормально. А может и не понять, к чему относится слово «его». Потому что для неё второй запрос — это просто новый отдельный вызов.
Claude Code бесплатно: как использовать ии бесплатно в 2026 году
31 марта 2026 года из npm source maps утёк исходный код Claude Code — CLI-агента от Anthropic. Буквально через часы на GitHub появился OpenClaude — форк, в который добавили OpenAI-совместимый провайдер. Суть: берёте весь инструментарий Claude Code (bash, чтение/запись файлов, grep, glob, MCP, агенты, задачи) и подключаете вместо Claude любую модель — GPT-4o, DeepSeek, Gemini, Llama через Ollama, или что угодно с OpenAI-совместимым API.Давайте разберёмся, что это на самом деле, как работает технически и стоит ли связываться.Что именно утекло и что с этим сделали
Реставрация ruGPT-3 XL или как я вернул к жизни забытую русскую языковую модель
Несколько дней к ряду я занимался реставрацией легаси модели ai-forever/rugpt3xl, это классическая языковая модель от SberDevices на 1.3B параметров, крошка по современным меркам, на которой сберовцы обкатывали свои научные наработки аж в далёком 2021м году. Подробнее о ней можно почитать в статье “A family of pretrained transformer language models for Russian” на Google Scholar.
Машинный перевод с локальным контекстом в Obsidian Copilot
Привет, Хабр.Мне по работе часто приходится заниматься переводом, и чтобы упростить себе жизнь, я решил настроить себе помощника, который был бы знаком с контекстом моей работы. Ниже делюсь результатами своих экспериментов.Переводчик в своей работе ориентируется не просто на какой-то язык, а на терминологию и стилистику определённого сообщества. Мой основной рабочий процесс выстроен в Obsidian (подробнее об этом я писал вместе с Игнатием Сатирским

