ollama. - страница 2

Оффлайн агент IDE Continue за 15 минут

ОглавлениеВведениеЧто потребуетсяШаг 1: Установка OllamaШаг 2: Загрузка моделей (LLM + embed)Шаг 3: Установка IntelliJ IDEA и плагина ContinueШаг 4: Настройка config.yamlШаг 5: Индексация проекта и первый запускПример работы: генерация и вставка кодаЗаключениеВведениеЯ расскажу, как реализовать локального LLM, который будет генерировать текст, код, тесты и сам вставлять результат прямо в ваш проект, если это требуется.⚠️ Важно: это не полноценный «агент» в современном понимании (с планированием, памятью и т.д.). Но плагин 

продолжить чтение

Разворачиваем RAG на Java без боли: практический гайд

Всем привет! Недавно столкнулся с проблемой, что в настоящее время большая часть обучающих материалов по Retrieval‑Augmented Generation (RAG) сосредоточена на Python‑экосистеме (LangChain, LlamaIndex и тому подобное), а пошаговые руководства, которые показывают, как быстро собрать рабочее RAG‑приложение на чистом Java‑стеке, встречаются крайне редко. Эта статья представляет собой простое практическое руководство, где мы разберём весь процесс от настройки окружения до полного примера кода, чтобы даже начинающий Java‑разработчик мог развернуть RAG.

продолжить чтение

Автоматизация процессов на open source — n8n и Ollama

Привет, Хабр. Я бизнес-архитектор, в свободное от основной работы время занимаюсь обучением, а также автоматизацией учебного процесса на базе open source инструментов. В качестве инструмента автоматизации процессов я недавно начал применять сервис n8n. В этом материале я расскажу о собственной практике использования инструмента n8n, а также затрону возможности использования больших языковых моделей (LLM), установленных локально с помощью Ollama для создания AI-агентов в n8n. Почему n8n

продолжить чтение

«Старички» V100 в деле и модные ИИ-агенты для написания документации

Автор: Александр Казанцев, руководитель отдела документации и контента

продолжить чтение

Сегодня мы построим свою локальную модель на смартфоне. С блэкджеком и WebUI

Сегодня мы построим свою локальную модель. С блэкджеком и WebUI!Предыстория

продолжить чтение

AI для умного дома: что уже работает сегодня (часть 1)

В статье — не просто список инструментов, а как они сочетаются, какие подводные камни ждут при развёртывании, какие цифры можно ожидать по производительности и как обойти ограничения Llama 8B без облачных кредитов.1. Ollama — локальные LLMOllama запускает большие языковые модели на вашем сервере. Без облака, без API-ключей.Зачем в умном доме: понимание естественного языка. «Включи свет в гостиной» → модель извлекает намерение и сущность, можно передать в HA.Ресурсы:

продолжить чтение

Маленький LLM-чат на Python с Ollama и LiteLLM. Часть 3: добавляем историю сообщений и контекст

Во второй части у нас получился уже не одноразовый скрипт, а маленький консольный чат: программа принимает вопрос, отправляет его модели, печатает ответ и ждёт следующего ввода.Но пока у этого чата есть важное ограничение: каждый новый запрос для модели почти независим.Если сначала спросить:Составь простой план изучения Python на 2 недели.а потом написать:Сделай его короче и оставь только самое важное.модель может ответить нормально. А может и не понять, к чему относится слово «его». Потому что для неё второй запрос — это просто новый отдельный вызов.

продолжить чтение

Claude Code бесплатно: как использовать ии бесплатно в 2026 году

31 марта 2026 года из npm source maps утёк исходный код Claude Code — CLI-агента от Anthropic. Буквально через часы на GitHub появился OpenClaude — форк, в который добавили OpenAI-совместимый провайдер. Суть: берёте весь инструментарий Claude Code (bash, чтение/запись файлов, grep, glob, MCP, агенты, задачи) и подключаете вместо Claude любую модель — GPT-4o, DeepSeek, Gemini, Llama через Ollama, или что угодно с OpenAI-совместимым API.Давайте разберёмся, что это на самом деле, как работает технически и стоит ли связываться.Что именно утекло и что с этим сделали

продолжить чтение

Реставрация ruGPT-3 XL или как я вернул к жизни забытую русскую языковую модель

Несколько дней к ряду я занимался реставрацией легаси модели ai-forever/rugpt3xl, это классическая языковая модель от SberDevices на 1.3B параметров, крошка по современным меркам, на которой сберовцы обкатывали свои научные наработки аж в далёком 2021м году. Подробнее о ней можно почитать в статье “A family of pretrained transformer language models for Russian” на Google Scholar.

продолжить чтение

Машинный перевод с локальным контекстом в Obsidian Copilot

Привет, Хабр.Мне по работе часто приходится заниматься переводом, и чтобы упростить себе жизнь, я решил настроить себе помощника, который был бы знаком с контекстом моей работы. Ниже делюсь результатами своих экспериментов.Переводчик в своей работе ориентируется не просто на какой-то язык, а на терминологию и стилистику определённого сообщества. Мой основной рабочий процесс выстроен в Obsidian (подробнее об этом я писал вместе с Игнатием Сатирским

продолжить чтение

123456...10...10