Часть 4. Обзор технологий RAG для LLM: аугментация извлеченных данных
Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь, третью часть — здесь). В этой, четвертой части авторы совсем скромненько, словно тренировались заполнять налоговую декларацию, разбирают технологии аугментации извлеченных данных.
Полмиллиона запросов за месяц: мой LLM-challenge и первые выводы
Привет, Хабр! Меня зовут Евгений, я работаю разработчиком в Университете Кембриджа (UK). В начале апреля я запустил llm7.io - полностью бесплатный LLM-провайдер, совместимый с популярными библиотеками chat completion. Цель была простая: проверить, насколько эффективно можно построить отказоустойчивую архитектуру под настоящую high-load-нагрузку, и при этом дать всем желающим доступ к мощным языковым моделям - без регистрации, API-токенов, смс и прочих барьеров.
Трафик языковых нейронок
Данные за апрель 2025. Расклад в главной мировой гонке века следующий. Отранжировано по убыванию. 1. ChatGPT — 5,1 млрд. (!) визитов в месяц. Абсолютное доминирование.2. DeepSeek от китайцев — 480 млн. Хороший ответ с новой архитектурой и открытостью кода. Но в сравнении с прошлыми месяцами трафик плавно идет на спад. Возможен скорый рост, за счет интеграции в потребительскую робототехнику, в которую активно ринулись большинство автопроизводителей Поднебесной.3. Gemini от Google
AI-агенты в реальном мире: почему они не работают и как это исправить
Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей. Статья на основе презентации
Часть 3. Обзор технологий RAG для LLM: оптимизация извлеченных данных
Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь) Во этой, третьей части авторы совсем кратенько разбирают технологии оптимизации извлеченных данных.После этапа поиска информации не рекомендуется напрямую передавать все полученные данные в LLM для генерации ответов. Оптимизацию предлагается проводить в двух направлениях: корректировка извлечённого контента и
LLM как концептуальный симулятор для универсальных «теорий всего». Скорректированный прогноз ai-2027.com и другие
"Вселенная - это библиотека, где каждая книга отражает все другие, а Бог - её вечный Читатель и Текст", Хорхе Луис Борхес."Реальность - это язык, на котором Вселенная наполняется смыслом", Я.
Часть 2. Обзор технологий RAG для LLM: поиск и извлечение информации
Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (первую часть см. здесь) Во второй части авторы разбирают технологии оптимизации поиска и извлечения данных. Поскольку материал я готовил в первую очередь для начинающих ИТ-переводчиков, сложные и специальные термины я сопровождал английским переводом и краткими пояснениями в инфобоксах (появляются по наведению курсора). Картинок не было, не обессудьте.
Накорми языковую модель документами
Задача поиска ответов по внутренней документации
Как технологии ИИ трансформируют работу контактного центра на Платформе Эра
В данной статье расскажем про ключевые процессы обслуживания клиентов, и смежные процессы управления — контроль качества и аналитику. Основной акцент сделаем на искусственном интеллекте. Рассмотрим также речевые технологии, вскользь коснемся классических подходов к построению автоматических сервисов.Платформа Эра — это новая информационно-коммуникационная платформа, на базе которой можно строить распределенные IP-АТС, омниканальные контакт-центры и другие корпоративные системы для обработки информационных и коммуникационных процессов.Сервисы GPT
Создание искусственных сомнений значительно повышает точность математических вычислений ИИ
Языковые модели лучше справляются с математикой при использовании "верифицируемой траектории рассуждений" (обзор модели rStar-Math)Что делает ИИ-систему хорошей в математике? Не сырая вычислительная мощность, а нечто почти противоречивое: невротичная тщательность в проверке своей правоты.

