Natural Language Processing. - страница 3

Архитектуры мультиагентных систем: линейная, рой, оркестратор и гибридное решение — что выбрать для продакшена

продолжить чтение

Wikontic: строим графы из текстов, используя онтологию и LLM

Привет, Хабр! Это Алла, я работаю исследователем в команде «Модели с памятью» Лаборатории когнитивных систем искусственного интеллекта Института AIRI и занимаюсь исследованиями на стыке графов знаний и языковых моделей. Ранее я уже писала на Хабре статью про построение графов знаний из текстов по мотивам одной из наших публикаций.Мы активно продолжаем работать дальше и создали Wikontic

продолжить чтение

Как изменилась индустрия AI Security за 2025 год?

В начале 2026 года мы (авторы телеграм-каналов по безопасности ИИ) собрались, чтобы подвести итоги прошедшего года и обсудить, куда движется безопасность ИИ в общем и целом. Разговор получился честным, на наш взгляд. Без маркетингового глянца, с открытыми разногласиями и скептицизмом там, где скептицизм заслужен.Участники дискуссии - Я, Артём Семенов, автор PWNAI; Борис Захир, автор канала Борис_ь с ml; Евгений Кокуйкин, создатель HiveTrace и автор канала Евгений Кокуйкин - Raft; и Владислав Тушканов

продолжить чтение

Заглянуть под капот ИИ-агентов: новый инструмент раскрывает «магию» Claude Code

TL;DR: Появился открытый инструмент Coding Agent Explorer — обратный прокси-сервер, который в реальном времени показывает всё общение между вашим ИИ-агентом (пока только Claude Code) и API Anthropic. Вы видите системные промпты, последовательность вызовов инструментов, токены (включая кэш), мышление агента шаг за шагом. Запускается за пару минут, работает локально, ключи маскируются автоматически.

продолжить чтение

Anthropic выпустила Claude Sonnet 4.6 с контекстом в 1 млн токенов

Anthropic представила Claude Sonnet 4.6 — обновлённую версию своей «средней» модели, которая по ряду задач уже приближается к уровню Opus.Теперь Sonnet 4.6 — модель по умолчанию в claude.ai

продолжить чтение

LLM модели: зарубежные VS отечественные

Когда команда выбирает LLM для продакшена, «сравнение по бенчмаркам» — это лишь первый фильтр. Для CTO ключевой вопрос звучит иначе: какую комбинацию качества, стоимости, стабильности API, юридических ограничений и интеграций мы получим на реальной нагрузке. Я разобрал популярные модели через призму двух контуров: качество/бенчмарки и инфраструктурная пригодность.Сравнение бенчмарков

продолжить чтение

Почему LLM продолжают генерировать ошибки в коде — и это не исправить масштабированием

Представьте типичную ситуацию: вы просите модель написать функцию обработки данных для корпоративного проекта. Код появляется за секунды, выглядит аккуратно, проходит локальные тесты. Но в продакшене всплывают скрытые проблемы: логика чуть расходится с требованиями в граничных условиях, или код игнорирует специфические ограничения внутренней библиотеки, которую модель никогда не видела в обучающих данных.

продолжить чтение

Небольшой тест LLM‑модели qwen3‑coder‑next:q8_0

Краткий эксперимент, проведённый в реальном времени.Что это за модель?ПараметрЗначениеНазначениеГенерация и отладка кодаКол‑во параметров~80 млрдКвантованиеQ8 (8‑бит)Размер84 ГБТребования к памяти≈ 84 ГБ VRAM (или эквивалентный объём RAM при работе без GPU)

продолжить чтение

RAG (Retrieval Augmented Generation) — a simple and clear explanation

People keep asking me what RAG is (in the context of large language models), and I keep wanting to share a link to an article on habr that would explain the concept of RAG (Retrieval Augmented Generation) in simple terms yet in detail, including instructions on how to implement this "beast." But there is still no such article, so I decided not to wait and write one myself.If something in the article is unclear or there are aspects of RAG that need to be elaborated on, don't hesitate—leave comments; I'll break it down and add more if necessary. Okay, let's go…RAG (Retrieval Augmented Generation) is a way of working with large language models where the user writes their question, and you programmatically mix in additional information from some external sources to that question and feed it, as a whole, into the language model. In other words, you add additional information to the model's context, based on which the language model can give the user a more complete and accurate answer.The simplest example:The user asks the model: "What is the current dollar exchange rate?"

продолжить чтение

Language Dove: как я транскрибирую и перевожу фильмы

Я обожаю смотреть иностранные фильмы в оригинале.Во-первых, мне нравится расширять кругозор, погружаться в другую культуру, расшифровывать структуру разных языков, пополнять словарный запас.Во-вторых, мне просто нравится звучание некоторых языков - например, французского, датского, китайского.Также я работаю над сайтом по изучению языков Language Dove, а учить языки по фильмам - это очень эффективно.Так родился проект по генерации идеальных субтитров.Функциональность субтитров:Подсветка слов в момент произношения - для тренировки восприятия на слух

продолжить чтение

Rambler's Top100