llm-модели. - страница 13

Часть 4. Обзор технологий RAG для LLM: аугментация извлеченных данных

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь, третью часть — здесь). В этой, четвертой части авторы совсем скромненько, словно тренировались заполнять налоговую декларацию, разбирают технологии аугментации извлеченных данных.

продолжить чтение

Полмиллиона запросов за месяц: мой LLM-challenge и первые выводы

Привет, Хабр! Меня зовут Евгений, я работаю разработчиком в Университете Кембриджа (UK). В начале апреля я запустил llm7.io - полностью бесплатный LLM-провайдер, совместимый с популярными библиотеками chat completion. Цель была простая: проверить, насколько эффективно можно построить отказоустойчивую архитектуру под настоящую high-load-нагрузку, и при этом дать всем желающим доступ к мощным языковым моделям - без регистрации, API-токенов, смс и прочих барьеров.

продолжить чтение

Трафик языковых нейронок

Данные за апрель 2025. Расклад в главной мировой гонке века следующий. Отранжировано по убыванию. 1. ChatGPT — 5,1 млрд. (!) визитов в месяц. Абсолютное доминирование.2. DeepSeek от китайцев — 480 млн. Хороший ответ с новой архитектурой и открытостью кода. Но в сравнении с прошлыми месяцами трафик плавно идет на спад. Возможен скорый рост, за счет интеграции в потребительскую робототехнику, в которую активно ринулись большинство автопроизводителей Поднебесной.3. Gemini от Google

продолжить чтение

AI-агенты в реальном мире: почему они не работают и как это исправить

Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей. Статья на основе презентации

продолжить чтение

Часть 3. Обзор технологий RAG для LLM: оптимизация извлеченных данных

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь) Во этой, третьей части авторы совсем кратенько разбирают технологии оптимизации извлеченных данных.После этапа поиска информации не рекомендуется напрямую передавать все полученные данные в LLM для генерации ответов. Оптимизацию предлагается проводить в двух направлениях: корректировка извлечённого контента и

продолжить чтение

LLM как концептуальный симулятор для универсальных «теорий всего». Скорректированный прогноз ai-2027.com и другие

"Вселенная - это библиотека, где каждая книга отражает все другие, а Бог - её вечный Читатель и Текст", Хорхе Луис Борхес."Реальность - это язык, на котором Вселенная наполняется смыслом", Я.

продолжить чтение

Часть 2. Обзор технологий RAG для LLM: поиск и извлечение информации

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (первую часть см. здесь) Во второй части авторы разбирают технологии оптимизации поиска и извлечения данных. Поскольку материал я готовил в первую очередь для начинающих ИТ-переводчиков, сложные и специальные термины я сопровождал английским переводом и краткими пояснениями в инфобоксах (появляются по наведению курсора). Картинок не было, не обессудьте.

продолжить чтение

Накорми языковую модель документами

Задача поиска ответов по внутренней документации

продолжить чтение

Как технологии ИИ трансформируют работу контактного центра на Платформе Эра

В данной статье расскажем про ключевые процессы обслуживания клиентов, и смежные процессы управления — контроль качества и аналитику. Основной акцент сделаем на искусственном интеллекте. Рассмотрим также речевые технологии, вскользь коснемся классических подходов к построению автоматических сервисов.Платформа Эра — это новая информационно-коммуникационная платформа, на базе которой можно строить распределенные IP-АТС, омниканальные контакт-центры и другие корпоративные системы для обработки информационных и коммуникационных процессов.Сервисы GPT

продолжить чтение

Создание искусственных сомнений значительно повышает точность математических вычислений ИИ

Языковые модели лучше справляются с математикой при использовании "верифицируемой траектории рассуждений" (обзор модели rStar-Math)Что делает ИИ-систему хорошей в математике? Не сырая вычислительная мощность, а нечто почти противоречивое: невротичная тщательность в проверке своей правоты.

продолжить чтение

Rambler's Top100