За пределами LLM: детерминированный движок рассуждения на конечном алфавите
Часть 1. Детерминированный движок рассуждения на конечной таблице операции (в перспективе — замена LLM)Когда речь заходит о больших языковых моделях, все сразу отмечают их талант к сочинению и пересказу текстов. Но вот встроить такую модель в реальный продукт — задача куда более каверзная, чем кажется на первый взгляд. На практике вылезают три системных «подводных камня», из‑за которых работать с ними бывает откровенно неудобно.
Как создать чат-бота с LLM?
Это уже четвертая часть статей по разработке AGI, и в предыдущих частях мы обсуждали теоретические и философские аспекты тех или иных вопросов, с ними всегда можно ознакомиться здесь. Сегодня же речь пойдёт о практике.Что получилось в иогеА зачем?
Где разместить новую станцию зарядки для электромобилей или как работать с геоэмбеддингами
В этой статье мы рассмотрим решение задачи поиска оптимальной локации для электрозарядных станций с помощью открытых данных, методов геоаналитики и алгоритмов классического машинного обучения.Что такое оптимальная локация?Под оптимальной локацией для размещения любого объекта инфраструктуры понимают такую локацию, где она будет пользоваться спросом у конечных потребителей. По опросам BCG EV Charging Survey
Автоматизированные системы мониторинга моделей машинного обучения с помощью нашего open source фреймворка
Привет! Меня зовут Владимир Суворов, я Senior Data Scientist в Страховом Доме ВСК и core-разработчик нашей библиотеки машинного обучения OutBoxML. Ссылки на наш проект на
Сделал бота для автоматизации поиска лидов
Привет, Хабр! Первая моя первая прикладная статья с конкретным опытом по проекту.TL;DR: Собрал систему на Python + LLM, которая парсит Telegram-чаты, находит людей с конкретными болями и генерирует персонализированные сообщения для аутрича. 7 чатов по 1000 сообщений — стоимость анализа $0.11.1. Проблема одного канал продажДва года я зарабатываю на фрилансе — делаю Telegram-ботов, Mini Apps и автоматизации для бизнеса. За это время вырос с 40 до 270 тысяч в месяц. Неплохо, но была проблема, которая не давала масштабироваться.Все заказы приходили с одной фриланс площадки.
MCP (КОМПАС-3D + LLM): превращаем САПР в среду для AI-агентов с помощью Python и COM API
Есть рутина, которую вы мечтаете автоматизировать?
RLM-Toolkit: Полная замена LangChain? FAQ часть 2
Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.
Fine-tuning Qwen-8B под проприетарный синтаксис (CADINP) на одной RTX 3090: опыт инженера-конструктора
Проблема: Галлюцинации в инженерных расчетахЯ занимаюсь расчетами строительных конструкций в комплексе SOFiSTiK. Основной инструмент взаимодействия с ним — внутренний язык CADINP. Это мощный, но старый процедурный язык с жестким синтаксисом: строгая последовательность модулей (AQUA -> SOFIMSHC -> ASE), специфичные команды фиксации узлов и неявные зависимости.SOTA-модели (ChatGPT-4o, Claude 3.5 Sonnet) справляются с CADINP посредственно. Основные проблемы при генерации кода general-purpose моделями:Синтаксический шум: Выдумывание несуществующих аргументов функций.Потеря контекста:
RLM: Почему ваш LLM-агент забывает цель и как это исправить
10 проблем LLM-приложений и как RLM их обходит — без изменения самой модели.Теоретические основы https://habr.com/ru/articles/986702/Что такое RLM?Recursive Language Model — способ использования любой LLM через Python REPL и рекурсивные sub-LLM вызовы.Обычный подход: → LLM → RLM подход: → → → Придумал Alex Zhang (октябрь 2025). Я сделал production-ready реализацию.Проблема 1: Context Rot 🧠💀Суть:
Трое в лодке, не считая контекста
Как подружить MCP-сервер, клиент и LLM в вашем приложении - практическое руководство. Всем привет! Меня зовут Владимир, последние несколько лет я занимаюсь разработкой приложений с использованием моделей компьютерного зрения (CV), обработки естественного языка (NLP) и больших языковых моделей (LLM).Буду делиться своими наработками в этих областях. Начнем с серии материалов по МСРВВЕДЕНИЕЕсли вы - разработчик, и используете в своих приложениях LLM (или большие языковые модели - а куда сейчас без них), вы наверняка слышали про Model Context Protocol

