ollama. - страница 2

Как мы создали open-source кодового агента, работающего с любыми локальными моделями

PocketCoder: история созданияСтыдно признаться, но я все больше и больше отдаю все на откуп LLM моделям, позволяя им глубже интегрироваться в мои задачи. Внутри постоянный страх, что навык уйдёт - забуду, как писать, как читать, как вообще понимать код. Но с другой стороны, все эти современные инструменты не оставляют другого выбора, как просто брать и интегрировать в свои проекты.Три недели назад нашей команде из BVM пришёл коллективный счёт на Claude Code в размере $120. Честно говоря, мы платим за подписку уже год, не считая редких API-запросов, которые растворились на фоне такой большой для нас суммы денег.

продолжить чтение

LLM для Meshtastic на Orange PI 5 8G

Однажды встретились Orange PI 5, Heltect v3, свободное время и J4F и в Саратове появился второй LLM бот для Meshtastic. Сегодня расскажу как все это повторить если у вас в одном месте и в одно время появится примерно такое же.Кратенько про Meshtastic. Сейчас у нас в Саратове по данным https://map.onemesh.ru/

продолжить чтение

MS Excel+LLM structured output как инструмент нормализации корпоративного справочника номенклатуры и смежные вопросы

ПредисловиеПрошло немногим больше двух лет с момента выхода моей прошлой статьи (https://habr.com/ru/articles/786288

продолжить чтение

Ollama добавила генерацию изображений и превратилась в универсальный локальный AI-хаб

продолжить чтение

Claude Code теперь можно запускать с локальными open-source моделями

Начиная с версии Ollama 0.14, платформа получила совместимость с Anthropic Messages API. Это означает, что Claude Code — агентный инструмент для программирования, который работает прямо в терминале — теперь может использовать любую модель из Ollama, а не только облачные модели Anthropic.

продолжить чтение

LLM + 1C: Почему чат-бот для учета — это плохая идея, и как реализовать AI-шлюз через OData

Вводная часть: Наивная мечта Изначально идея казалась кристально чистой: пользователь отправляет текстовый или голосовой запрос (например: «Выведи топ должников по Тверской области на текущую дату и суммы задолженности»). Шлюз транскрибирует голос в текст (использована Java + библиотека Vosk), передает его ИИ, а тот «понимает», какие запросы нужно сделать к OData 1С, получает данные и возвращает пользователю красивый, структурированный отчет. Для голосового ввода использовался отдельный модуль на базе Vosk

продолжить чтение

Ollama Tutorial: How to Run Local AI Models with Ollama

Ollama has become the standard for running Large Language Models (LLMs) locally. In this tutorial, I want to show you the most important things you should know about Ollama.Watch on YouTube: Ollama Full TutorialWhat is Ollama?Ollama is an open-source platform for running and managing large-language-model (LLM) packages entirely on your local machine. It bundles model weights, configuration, and data into a single Modelfile package. Ollama offers a command-line interface (CLI), a REST API, and a Python/JavaScript SDK, allowing users to download models, run them offline, and even call user-defined functions. Running models locally gives users privacy, removes network latency, and keeps data on the user’s device.Install OllamaVisit the official website to download Ollama 

продолжить чтение

NVIDIA RTX PRO 2000 Blackwell. На что способен «младшенький GPU» нового семейства профессиональных карт NVIDIA

Автор: Александр Казанцев, руководитель направления по работе с документацией и контентом HOSTKEYПрофессиональную видеокарту RTX PRO 2000 Blackwell сама NVIDIA позиционирует как компактное и энергоэффективное решение для профессиональных рабочих станций, ускоряющее графику и ИИ-задачи. Обещается максимальная AI-производительность с FP4, DLSS 4 и оптимизацией для RTX Neural Shaders, Mega Geometry, а также поддержка сложных multi-app workflow: генеративный ИИ, 8K-видео, реал-тайм рендеринг, CAD с ray tracing.​ То есть карта создана для применения в создании контента, 3D-дизайне, видео- и CAD-воркфлоу.

продолжить чтение

Поиск работы в Telegram: как автоматизировать рутину с помощью JobStalker

Поиск работы часто превращается в бесконечный скроллинг по Telegram-каналам: десятки уведомлений, тонны сообщений, чтение длинных описаний вакансий, попытки понять, подходит ли это тебе. А ведь Telegram — один из самых популярных источников свежих предложений о работе, особенно в IT, маркетинге и фрилансе. Но вручную фильтровать всё это — сплошная потеря времени. Здесь на помощь приходят современные технологии: машинное обучение, которое может анализировать текст лучше, чем человек, и автоматизировать процесс.Именно из этой идеи родился JobStalker

продолжить чтение

Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)

Привет, Хабр! 👋Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).

продолжить чтение

Rambler's Top100