rag.
Я устал получать статьи про «катализатор изменений» вместо химии и обучил нейросеть
Представьте: вы технолог на нефтехимическом заводе. Вам нужно смоделировать работу новой установки — как сырьё будут нагревать, охлаждать и разделять на компоненты. Поскольку вы сталкиваетесь с этим впервые, есть два пути: либо разбираться в теории по справочникам и собирать решение самостоятельно, либо найти готовый кейс с расчётами и результатами в открытых источниках.Логичнее смотрится второй вариант. Но тогда возникает другая проблема. Вы открываете источники — и видите политику, слияния-поглощения, биржевые котировки, санкции. Узнать, кто кого купил или какая сегодня цена на нефть, можно за секунды.
Галлюцинации ChatGPT убивают инженерные задачи. Я собрал RAG-бота, который не врёт
Представьте: вы технолог на нефтехимическом заводе. Вам нужно смоделировать работу новой установки — как сырьё будут нагревать, охлаждать и разделять на компоненты. Поскольку вы сталкиваетесь с этим впервые, есть два пути: либо разбираться в теории по справочникам и собирать решение самостоятельно, либо найти готовый кейс с расчётами и результатами в открытых источниках.Логичнее смотрится второй вариант. Но тогда возникает другая проблема. Вы открываете источники — и видите политику, слияния-поглощения, биржевые котировки, санкции. Узнать, кто кого купил или какая сегодня цена на нефть, можно за секунды.
Проблемы людей и нейросетей
Эта статья написана без участия ИИ. Для простых смертных. Упрощена.Сейчас тренд на замену людей нейросетями, вайбкодинг, и другие вещи, которые завернуты в фантик «Беззаботного будущего», всё это мне напоминает предыдущий тренд, который был до появления ИИ — «Успешный успех». Нам продают не технологии, а чувства простоты, на которое люди каждый раз охотно ведутся.По ощущениям, это тот же барабан с цифрами 777, нам показывают пару удачных прокруток, «джекпоты», счастливые лица, а реальная статистика, цена попыток, и неизбежные промахи остаются за кадром.
RAG (Retrieval Augmented Generation) — a simple and clear explanation
People keep asking me what RAG is (in the context of large language models), and I keep wanting to share a link to an article on habr that would explain the concept of RAG (Retrieval Augmented Generation) in simple terms yet in detail, including instructions on how to implement this "beast." But there is still no such article, so I decided not to wait and write one myself.If something in the article is unclear or there are aspects of RAG that need to be elaborated on, don't hesitate—leave comments; I'll break it down and add more if necessary. Okay, let's go…RAG (Retrieval Augmented Generation) is a way of working with large language models where the user writes their question, and you programmatically mix in additional information from some external sources to that question and feed it, as a whole, into the language model. In other words, you add additional information to the model's context, based on which the language model can give the user a more complete and accurate answer.The simplest example:The user asks the model: "What is the current dollar exchange rate?"
ai-sidekick: Быстрый старт в мир AI-агентов и RAG
Приветствую, Хабр! Представляю вам свой framework - ai-sidekickМы разберём готовый к работе фреймворк для экспериментов с MCP-tools. А также, на его основе, рассмотрим архитектуру RAG (Retrieval-Augmented Generation) AI-ассистента для поиска информации в вашей собственной базе знаний. Это не набор абстракций в тысячу строк, а минималистичная кодовая база на Python и Docker, которая предоставляет возможность эксперементировать с конфигурациями и кодом под ваши задачи.
Тренды рынка больших данных: прогноз на 2026 год от эксперта К2Тех
Российский рынок решений для управления данными переживает бурный рост – по прогнозам экспертов, более 20% ежегодно до 2030 года. В 2026 году основным фактором его развития станет не столько объемом данных, сколько способностью компаний извлекать из них реальную, рентабельную ценность. Руководитель направления Big Data & BI К2Тех Дмитрий Красников выделил пять ключевых трендов, которые сформировались по итогам 2025 года и задают вектор развития рынка в 2026 году.Тренд 1: от экспериментальных ИИ-пилотов к управляемым промышленным решениям
Мой локальный агент помнит проект лучше меня. Контекст — 32K токенов. Расскажу, как
Три месяца назад я наблюдал, как мой агент на Llama 3.1 8B в третий раз спрашивает, как меня зовут.Я представился в первом сообщении. Двести сообщений назад...Агент забыл. Не потому что тупой. Потому что контекст переполнился и начало разговора уехало в никуда.Это был момент, когда я понял: мы неправильно думаем о памяти.Почему большие контексты — это ловушкаКогда вышел Claude с контекстом на миллион токенов, казалось — проблема решена. Запихиваем всё в контекст, модель помнит всё. Красота.Потом пришёл счёт за API.
GitHub Copilot CLI: агентный режим и планирование задач
Привет, Хабр! Недавно GitHub выкатил крупное обновление Copilot CLI — инструмент превратился из простого подсказчика команд в полноценного агента с режимом планирования, памятью репозитория и кучей новых возможностей. Разберём, что появилось и как это использовать.Для тех, кто пропустил: что такое Copilot CLIGitHub Copilot CLI — ИИ-ассистент, который живёт прямо в терминале. Работает на Linux, macOS и Windows (через PowerShell или WSL). Умеет отвечать на вопросы, генерировать и отлаживать код, а также взаимодействовать с GitHub: создавать pull request, закрывать issue, анализировать изменения в репозитории, запускать workflows.Запускается командой copilot
Я год доверял ChatGPT в строительстве, а потом он придумал ГОСТы
Эту историю для моего блога рассказал Алексей КривоносовГод назад я начал использовать ChatGPT для работы. Занимаюсь загородным строительством — это основной бизнес. Также веду YouTube-канал компании. Нейросеть помогала генерировать сценарии, составлять контент-планы, оформлять технические отчёты.Но когда попробовал использовать ChatGPT для работы со строительными нормами — СП, ГОСТами, нормативной документацией — столкнулся с проблемой. Нейросеть придумывала несуществующие пункты нормативов, выдавала цифры, которых не было в документах.
Как я пытался сжимать смыслы вместо байтов
Два часа ночи. Я пытаюсь впихнуть документацию проекта в контекст Claude. 847 страниц. Где-то 1.2 миллиона токенов. Контекстное окно — 200 тысяч.Делаю то, что делают все: режу, суммаризирую, выбрасываю «неважное». Каждый раз теряю что-то критичное. Это уже третий час, кофе кончился, и в голову приходит идея, которая кажется гениальной.Спойлер: она такой не была.

