Как мы искали лучшие способы классификации
Всем привет!В предыдущих статьях мы уже рассказывали о том, какими метриками можно пользоваться для оценки ответов AI-продуктов.В большом количестве метрик для решения такой задачи предварительно надо оценить, к какой категории относится тот или иной ответ.В этой статье мы преследовали две цели:На примере показать, как применяются такие метрики и как с помощью них можно оценить качество работы модели.
Разработка MCP-сервера на примере CRUD операций
Model Context Protocol (MCP) — это открытый протокол, разработанный компанией Anthropic. Он призван унифицировать способ взаимодействия между LLM и сторонними сервисами, инструментами и источниками данных.До появления MCP каждому разработчику приходилось пилить свой велосипед для каждого сервиса. При этом один API требовал одного формата, другой — совершенно другого. А в случае изменений сервиса приходилось менять и клиентскую сторону. В общем проблем было много. MCP же оставил большинство этих проблем позади.В данной статье на примере простых CRUD-операций разберем, что такое MCP-сервер, как его создать и как подружить с LLM.
GigaMemory: научи ИИ «помнить всё» с AI Journey Contest 2025
Мы всё чаще делегируем ИИ-ассистентам рабочую рутину и бытовые вопросы. Но во взаимодействии с ними есть существенная проблема: модели не помнят пользователя. Между сессиями теряются имя, контекст работы, желаемые ограничения и предпочтения, значительно влияющие на то, что и как стоит ответить пользователю. В итоге диалог каждый раз начинается «с нуля», а ответы звучат усреднённо. Это снижает эффективность и по доверие: когда ассистент не помнит важное о вас, он превращается в поисковик с красивыми фразами.Мы в команде RnD для B2C SberAI хотим это исправить. Представляем вашему вниманию задачу
«Какой ещё “агентный ИИ”, если он одну инструкцию толком выполнить не может?»
На форуме Cursor развернулась жаркая дискуссия: пользователи массово жалуются, что «агентные» ИИ — это пока больше маркетинг, чем магия. Один из участников, устав править за GPT-5 и Gemini Pro, выдал крик души: Какой агент, если модель не может даже обновить одну Go-функцию без ошибок?!
Почему «больше токенов ≠ лучше» или Как научить LLM работать с длинным контекстом
Всем привет! Меня зовут Наталья Бруй, я промпт-инженер в MWS AI. Вместе с моей коллегой Анастасией Тищенковой мы решили ответить на вопрос, который мучает нашего пиарщика
Симуляция делового совещания с GigaChat. Вся сила в промпте
Привет Хабр! Меня зовут Анатолий, я занимаюсь автоматизацией бизнес-процессов и применением Искусственного Интеллекта в бизнесе.Поступил необычный запрос: нужен инструмент, который позволил бы отрабатывать навыки управления командой в условиях, максимально приближенных к реальности. Не абстрактные кейсы, не "ролевые игры" с заранее прописанными сценариями и постановкой, а живое взаимодействие - со всеми его конфликтами, эмоциями и неожиданными поворотами.
Что я вынес из Oxford Machine Learning Summer School 2025
Mathematical Institute, University of OxfordВдохновлено обзором про похожую школу — EEML.
Как работает Context Engineering в Claude и других агентах
Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Уплотнение, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.Контекст — критически важный, но ограниченный ресурс для AI-агентов. В этой статье мы разбираем стратегии по грамотному отбору и управлению контекстом, который ими управляет.
Ling-1T: триллион параметров, 50 млрд активных — новая архитектура «эффективного мышления»
InclusionAI представила Ling-1T, первую модель на архитектуре Ling 2.0, оптимизированной для «efficient reasoning». Это триллион-параметрическая MoE-модель, в которой на каждый токен задействуется лишь ~5 % нейронов — и всё это при 128 K контексте и FP8-обучении.Что известно о модели:Обучена на 20 трлн токенов, из них 40 % — задачи с рассуждениями.Поддерживает контекст до 128 K токенов.Использует новый подход Evo-CoT (Evolutionary Chain-of-Thought) для «поэтапного мышления».В кодовых бенчмарках (mbpp, LiveCodeBench) — уверенно обгоняет GPT-5 и DeepSeek-V3.

