ollama. - страница 5

Распознавание текста на изображении и общение с распознанным текстом. Paddle OCR + LLM

Кадр из фильма двухсотлетний человекДанная статья описывает процесс создания проложения для распознавания текста на изображении и общения с распознанным текстом. Системные требованияЯзык: Python

продолжить чтение

Как поднять локальную LLM за 5 минут

Кратко по терминамOllama — это инструмент, который позволяет запускать локальные LLM (как LLaMA, Mistral, Gemma и другие)LLaMA (Large Language Model Meta AI) — это серия открытых языковых моделей, разработанных компанией MetaOpenWebUI — это веб-интерфейс для Ollama, похожий на ChatGPT, но работающий с локальными моделямиТребования к ресурсамMemory 8+ GB CPU 4+ (лучше GPU) HDD 25+ GBУстановка Docker Enginehttps://docs.docker.com/engine/install/ubuntu

продолжить чтение

Обновление Ollama: поддержка мультимодальности и возможность загружать файлы

Разработчики Ollama выпустили обновление инструмента для локального запуска нейросетей. В нём появилась поддержка мультимодальности, возможность загружать файлы и другие функции. Обновление доступно для Windows и macOS.

продолжить чтение

Меньше переписок — больше жизни: личный телеграм-бот за 30 минут

В айти я уже давно, и в какой-то момент проектов стало сильно больше, чем я могу вывезти. Отказаться даже от одного из них — не вариант, деньги нужны катастрофически. После того как рабочий день снова закончился к 2-3 ночи, я начал думать, как освободить себе хотя пару часов на поспать или пожить. Сначала завел таск-трекер, потом вставал пораньше, но кардинально ничего не поменялось.

продолжить чтение

Личный помощник в Telegram: как я сделал ИИ-бота, который сэкономил часы на переписках

В айти я уже давно, и в какой-то момент проектов стало сильно больше, чем я могу вывезти. Отказаться даже от одного из них — не вариант, деньги нужны катастрофически. После того как рабочий день снова закончился к 2-3 ночи, я начал думать, как освободить себе хотя пару часов на поспать или пожить. Сначала завел таск-трекер, потом вставал пораньше, но кардинально ничего не поменялось.

продолжить чтение

Как запустить нейросеть у себя на компьютере: 4 простых инструмента

продолжить чтение

Как научить нейросеть работать руками: создание полноценного ИИ-агента с MCP и LangGraph за час

Друзья, приветствую! Надеюсь, успели соскучиться.Последние пару месяцев я с головой ушёл в исследование интеграции ИИ-агентов в собственные Python-проекты. В процессе накопилось немало практических знаний и наблюдений, которыми просто грех не поделиться. Поэтому сегодня я возвращаюсь на Хабр — с новой темой, свежим взглядом и с намерением писать чаще.На повестке дня — LangGraph и MCP: инструменты, с помощью которых можно создавать действительно полезных ИИ-агентов.

продолжить чтение

Георгий Герганов, автор llama.cpp и звукового кейлогера

Многие пользуются YouTube, Netflix, но не подозревают о ключевых опенсорсных программах типа ffmpeg, которые работают на бэкенде этих сервисов. Похожая ситуация с нейронками, где многие знают программу Ollama

продолжить чтение

Как мы учили нейросеть отвечать на вопросы

Привет, Хабр! На связи Денис Романов, директор департамента Professional Services компании «Базис». Яркое появление китайских языковых моделей заставило нас по-новому посмотреть на возможности нейросетей, и вот уже несколько месяцев мы активно внедряем их в рабочие процессы — от автоматизации рутинных задач до поддержки клиентов.

продолжить чтение

Как устроены LLM-агенты: архитектура, планирование и инструменты

Всем привет! С вами Кирилл Филипенко, сисадмин из Selectel, и сегодня мы погрузимся в тему LLM-агентов. Сейчас об этих самых «агентах» кричат буквально из каждого утюга, поэтому пришло время наконец-то разобраться, что это такое, как они работают и с чем их, собственно, едят. Прыгайте под кат, будет интересно!

продолжить чтение

Rambler's Top100