llm. - страница 26

llm.

LLM-клиент с MCP – дорогой и неэффективный подход в разработке

В наше время тяжело представить разработку цифровых продуктов, в которые хоть в какой-то степени не включили так называемый ИИ на больших языковых моделях (LLM). И я вовсе не против, но у меня вызывают вопросы подходы разработчиков к способам внедрения интеллектуальных инструментов в свои продукты.Думаю, абсолютное большинство оптимальным способом внедрения интеллекта в продукт выбрали использование проприетарных моделей через API, с добавлением кастомного функционала через вызовы MCP серверов. Кажется, это уже даже стало стандартом, и в этом я вижу проблему.

продолжить чтение

От Telegram-бота к AI-агенту: как собрать своего «исполнителя задач» на Python в 2025-м

В 2023–2024 почти каждый второй pet-проект с LLM выглядел как чатик: ты спрашиваешь — модель отвечает, иногда с RAG, иногда без. В 2025-м тренд сместился: на рынке всё чаще говорят про AI-агентов — системы, которые не просто болтают, а сами инициируют действия, ходят в API, планируют шаги и живут в продакшене как часть инфраструктуры.

продолжить чтение

Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)

Привет, Хабр! 👋Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).

продолжить чтение

SFT vs RL: Сравнение методов настройки LLM для задач программирования и игровых сред

ВведениеВ современной разработке AI-агентов возникает необходимость адаптации больших языковых моделей (LLM) для решения специфических задач, требующих не просто генерации текста, а выполнения последовательных действий с рассуждениями. В этой статье мы рассмотрим и сравним два основных подхода к настройке моделей: Supervised Fine-Tuning (SFT) и Reinforcement Learning (RL), используя библиотеку TRL (Transformer Reinforcement Learning) от Hugging Face. Мы рассмотрим применение этих методов для двух категорий задач: Задачи программирования:Нахождение подходящего инпута для программы

продолжить чтение

Как мы учим Яндекс Карты предупреждать о манёврах: без использования LLM, но с помощью водителей

продолжить чтение

Автоматизируем машинное обучение с помощью ИИ-агентов

Решая соревнования на Kaggle начинаешь замечать паттерн. Baseline сделать просто: загрузить данные, запустить CatBoost или LightGBM, получить baseline метрику. Это занимает полчаса. Но чтобы попасть в топ решений, нужно перепробовать десятки вариантов препроцессинга, сотни комбинаций фичей и тысячи наборов гиперпараметров.

продолжить чтение

Ванесса — милый ИИ-администратор для музыкального театра

Все началось одним из хмурых осенних вечеров, супруга с группой из 15 детей и 5 родителями отправлялись на очередной конкурс. Шумная актерская тусовка просочилась через турникеты ЖД станции, а я поехал домой, одновременно строя планы на то, как ближайшие несколько дней в тишине буду готовить хозяйство к зиме.Полчаса все шло по плану, но тут прилетел звонок: «Дорогой, помоги найти обратные билеты». А еще спустя час и море слез оказалось, что билеты она не купила потому, что думала, что купила — как в анекдоте.

продолжить чтение

Французский стартап представил линейку Mistral 3: 675 миллиардов параметров в open source

Компания Mistral AI выпустила новое поколение своих моделей — Mistral 3. В релиз вошли три небольших плотных модели (3B, 8B и 14B), а также флагманская Mistral Large 3 — разреженная Mixture-of-Experts-архитектура с 41B активных и 675B общих параметров. Все модели распространяются под Apache 2.0, что делает Mistral 3 одним из крупнейших полностью открытых релизов в сегменте frontier-класса.

продолжить чтение

Как сжимать языковые модели без дообучения

продолжить чтение

LLM Observability & AI Agent Tracing: большой гайд с обзором подходов и open-source решений

В этой статье я структурировал весь опыт и подходы к тому, как мониторить и трейсить LLM и AI-агентов на их основе. Это очень большая и тяжелая статья, но мне хотелось полностью закрыть всю тему за раз и создать крепкий бейзлайн для погружения в тему observability и трейсинга агентов.Поговорим про то, почему все LLM-based решения требуют новых подходов, обсудим ключевые проблемы агентов, посмотрим пару самых популярных решений и обзор всех опенсорсных и зафиналим трендами и направлением, куда все это движется.

продолжить чтение

Rambler's Top100