docker.

Как сделать (очень) маленькие LLM действительно полезными

Команда AI for Devs подготовила перевод статьи о том, как выжать максимум из маленьких языковых моделей. Автор показывает, что даже очень компактные LLM могут быть полезны в реальных задачах — если правильно работать с контекстом, embeddings и RAG.

продолжить чтение

Больше чем ядро: как пет-проект вырос в мультитенантную платформу для создания AI-агентов

СодержаниеПролог. Краткость - сестра таланта... Часть 1. Концепт Часть 2A. Вайб-кодинг: философия и инструменты Часть 2B. Вайб-кодинг: практика взаимодействия Часть 3. Архитектура: первый блин комом Часть 4. Релиз и фичи Часть 5. Закат и рассвет Часть 6. Мультитенантная архитектура Часть 7: Сценарии — декларативная магия Часть 8. Эволюция системы плагинов: от модулей к экосистеме

продолжить чтение

Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B)

В интернете огромное количество гайдов на тему транскрибации аудио и анализа совещаний через ИИ. Но все они описывают разрозненные решения: отдельно транскрибируй аудио, затем отправь в ChatGPT, и так далее.Я решил комплексно подойти к этому вопросу и навайбкодить веб-приложение, где все задачи решаются в одном окне, а именно:Хранение транскрипцийЧат с ИИ по содержимому встречиСтруктурированные протоколы (задачи, решения, события)Рекомендации ИИ на базе текущей и предыдущих встречИнтеграция с CRM в один клик (beta)

продолжить чтение

Вайбкодинг: как я чуть не снес БД по совету Claude Opus, или Почему ИИ пока еще не замена человеку

Вайбкодинг обещает нам будущее, где мы лишь «менеджеры кода», а всю работу делают нейросети. Я всегда скептически относился к этому, и суровая реальность деплоя лишь подтвердила мои опасения. Мой проект лег, процессор забился под 100%, а «самая умная» кодинг-модель Claude Opus 4.5 настойчиво предлагала единственное решение — снести мою БД. Рассказываю, как инженерное чутьё спасло проект от советов ИИ, и почему даже в 2025 году вайбкодинг не заменяет мозги.

продолжить чтение

Деплой ML-моделей: что от вас реально ждут на работе

Новички часто не понимают, что именно считается деплоем ML-модели и насколько глубоко в этом нужно разбираться. Ниже я покажу, как деплой выглядит на практике, насколько он важен для начинающего ML-инженера и с какими технологиями имеет смысл познакомиться в первую очередь.Деплой ML-модели — это момент, когда обученная модель становится частью продукта. Модель перестаёт жить в ноутбуке и начинает работать в бизнес-логике: её можно вызывать из других сервисов и систем.В вакансиях ML-инженеров часто упоминают десятки технологий, связанных с деплоем: Docker, Kubernetes, CI/CD и другие. 

продолжить чтение

6 Docker-фич для продвинутого использования. Часть 2

Привет Хабр! Снова.Docker уже давно стал стандартом, и базовые команды вроде docker run, docker build или docker compose up знакомы любому разработчику. Но экосистема и инструментарий контейнеризации гораздо глубже.В этом материале мы отойдём от банальных инструкций и разберём шесть продвинутых инструментов и настроек. Думаю, вы узнаете для себя что-нибудь новое.Читайте первую часть по ссылке.Dive: Рентген для образовDive

продолжить чтение

Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5

Недавно получил задачу сделать автоматизированную оцифровку характеристик из паспортов товаров в БД, а не изменение параметров вручную в ERP. Я подумал, было бы здорово поделиться, как я это сделал, с вами на Хабре!Базовые задачи:Нужно, чтобы это все работало локальноСистема должна принимать разные форматы (.doc, .pdf, .png)Возможность создавать динамические таблицы, куда ИИ будет заполнять сама информацию, а не хардкодить для каждой категории паспорта свои отчетыЖелательно, чтобы все работало на одной видеокарте (в моем случае 3090 на 24GB VRAM)

продолжить чтение

Как я внедрил агента в бекенд-прод для решения рутинных задач

TL;DRМы собрали рабочего ИИ-агента-разработчика, который сам анализирует задачи в Jira, уточняет детали, пишет код, запускает сборку, фиксит ошибки, создаёт MR в GitLab и отправляет его человеку на ревью. Он работает параллельно на нескольких задачах, благодаря чему суммарное время выполнения пачки задач падает почти втрое. Команда избавилась от рутины, а скорость разработки выросла без расширения штата.Использовали: Ollama + Qwen3 Coder, PostgreSQL, Docker, GitLab/Jira API, систему строгих JSON-действий.Столкнулись с контекстом, "галлюцинациями", GPU и самовольными правками кода - всё решаемо архитектурой.

продолжить чтение

Docker для начинающих: что это такое и как пользоваться

Статей про Docker много не бывает.В этом материале мы разберём базу: что такое Docker, как он работает и зачем нужен, а затем пошагово пройдём путь от установки до запуска первого контейнера.С подготовкой статьи помог:

продолжить чтение

Подключаем LLMку в свой Java-Kotlin проект через Docker

Всем привет, сегодня я расскажу как подключить LLMку через докер в ваш проект под разные задачи: от рабочих до бытовых.Мы будем использовать Java/Kotlin + Docker + Ollama.Немного о Ollama Ollama — это платформа для локального запуска и управления LLM (больших языковых моделей) на своём компьютере. Она нужна, чтобы использовать и тестировать модели вроде GPT или LLaMA без облака, хранить их локально и интегрировать в свои приложения. Я же сегодня буду вам показывать пример на llama3:8b. В первую очередь Llama 3‑8B оптимизирована для общего текстового интеллекта: от ответов на вопросы до прочих повседневных задач.

продолжить чтение

123
Rambler's Top100