Natural Language Processing. - страница 10

Базовый минимум. Часть 2: промпт-инжиниринг

Дисклеймер: данная лекция подготовлена в первую очередь для непрофильных студентов магистратуры и аспирантуры, которые используют ИИ в учебной, исследовательской и профессиональной деятельности. Материал носит вводный характер и содержит намеренные упрощения. В то же время лекция может быть полезна и более широкой аудитории пользователей ИИ. Буду признателен за замечания и предложения по улучшению.Серия «Базовый минимум» (4 части): Базовый минимум. Часть 1:  большие языковые модели;Базовый минимум. Часть 2:  промпт-инжиниринг (вы здесь);

продолжить чтение

RLM-Toolkit: Полная замена LangChain? FAQ часть 2

Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.

продолжить чтение

Похоже, GPT-5.3 уже на подходе — и это может быть один из самых серьёзных апдейтов OpenAI за долгое время

По информации из нескольких источников, новая версия модели проходит под кодовым названием Garlic. Если верить инсайдам, GPT-5.2 был лишь промежуточным чекпоинтом — своего рода «разбавленной версией» того, чем станет 5.3.Главная цифра — 2 000 токенов в секунду. Именно такую скорость сможет выдавать арендный кодинг на базе GPT-5.3 благодаря партнёрству OpenAI с Cerebras.

продолжить чтение

Базовый минимум. Часть 1:  большие языковые модели

Дисклеймер: данная лекция подготовлена в первую очередь для непрофильных студентов магистратуры и аспирантуры, которые используют ИИ в учебной, исследовательской и профессиональной деятельности. Материал носит вводный характер и содержит намеренные упрощения. В то же время лекция может быть полезна и более широкой аудитории пользователей ИИ. Буду признателен за замечания и предложения по улучшению.Серия «Базовый минимум» (4 части): Базовый минимум. Часть 1:  большие языковые модели (вы здесь);Базовый минимум. Часть 2:  промпт-инжиниринг;Базовый минимум. Часть 3:  RAG-системы; 

продолжить чтение

Рекурсивные языковые модели (RLM) – парадигма 2026 года

Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.Как мы планируем управлять чрезвычайно длинными контекстами

продолжить чтение

Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги

Команда AI for Devs подготовила перевод большой обзорной статьи о 2025 годе в мире LLM. Автор подводит итоги года: от vibe coding и coding-агентов до MCP, prompt injection, локальных моделей, браузеров с ИИ и «slop» как культурного феномена.Это третья часть моей ежегодной серии обзоров всего, что произошло в сфере LLM за последние 12 месяцев. Предыдущие выпуски см. в материалах Stuff we figured out about AI in 2023 и Things we learned about LLMs in 2024.Этот год оказался насыщенным и принес с собой множество самых разных тенденций.

продолжить чтение

Агентные системы для продакшена

Всем привет! Сегодня разберём, как проектировать агента, который доезжает до продакшена и приносит пользу бизнесу: от вопросов на старте до стека и практик, без которых он развалится в эксплуатации.Меня зовут Владимир, на данный момент работаю ML-инженером и разрабатываю мультиагентные системы. К сожалению, пока не могу похвастаться тем, что сократил 20 процентов сотрудников, но достижения имеются...

продолжить чтение

LLM — это афера на доверии, которая длится 400 лет

В 1623 году немец Вильгельм Шиккард создал первые известные чертежи механического калькулятора. Спустя двадцать лет Блез Паскаль разработал машину улучшенной конструкции, чтобы помочь справляться с огромным количеством утомительных арифметических расчётов, необходимых в его работе сборщика налогов.Интерес к механическим вычислениям не ослабевал последующие века: поколения людей по всему миру продолжали дело Паскаля и Шиккарда, разделяя их убеждение, что перекладывание умственной нагрузки на машину принесёт облегчение.Аферу на доверии можно разбить на три этапа:начала выстраивается доверие;

продолжить чтение

Как я заменил BI-дашборд на AI-чат: архитектура RAG-системы для 600K записей

После 10 лет внедрения BI-систем (Qlik Sense, Power BI, Data Lens) я понял одну вещь: дашборд — это не решение. Это данные для решения. А между данными и решением — пропасть, которую преодолевает человек.В этой статье покажу, как построил RAG-систему с чат-интерфейсом для базы из 600 000 записей техники из Федресурса. Без философии — только архитектура, код и грабли.Проблема: почему дашборды не работаютТипичный сценарий. Аналитик открывает дашборд с данными о технике в лизинге. Нужно найти топ-10 компаний с бензовозами в Московской области.Что происходит:Ищет нужный дашборд (их 15 штук)

продолжить чтение

Лоботомия нейросети: удалил 7 слоёв из LLM — она стала на 30% быстрее

Эксперимент по хирургическому удалению слоёв из языковой моделиTL;DRЯ взял TinyLlama (1.1B параметров, 22 слоя) и начал удалять из неё слои, чтобы проверить гипотезу: современные LLM переобучены, и многие слои делают одно и то же.Результаты:Удалил 1 средний слой → +10% скорость, -4% качествоУдалил 7 слоёв (безопасных) → +30% скорость, -2.5% качествоУдалил первый слой → модель сломаласьНеожиданно: Layer 2 важнее Layer 0! (+6.67 vs +3.92 perplexity)Протестировал все 22 слоя по отдельности. Вот что нашёл.Зачем это нужно?

продолжить чтение

1...8910111213...2030...34