Natural Language Processing.

Clawdbot [Moltbot], или почему нужно срочно дать языковой модели контроль над вашим Mac mini

продолжить чтение

Как мы делали ИИ-репетитора для ЕГЭ по математике

Пост-мортем студенческого стартапа.Глава первая. Собственное разочарованиеЗима 2023-го. В это время и я, и мой будущий кофаундер Артур учились в 11-м классе, усердно готовясь к финальным экзаменам. Подготовка большую часть времени состояла из отчаянных ночных посиделок, во время которых слезившиеся от яркости монитора глаза уже пятый раз подряд усердно перечитывали:«В правильной четырехугольной пирамиде через точку A параллельно BD проведена плоскость α, а через точки В и D параллельная ей плоскость β так, что сечения пирамиды этими плоскостями имеют равные площади»,

продолжить чтение

Нейросети не смогут в AGI

Современный AI не может накапливать интеллект со временем — каждый навык приобретается ценой забывания других. Это архитектурный тупик, а не вопрос масштаба.Количество параметров нейросетей уходит в бесконечность. Чипы дорожают. Масштабирование продолжается. Илон Маск обещает рождение AGI к концу этого года. И единственный лимит, который он видит, это количество доступной энергии и сами чипы.Но что вкратце делает трансформер-сеть?

продолжить чтение

Базовый минимум. Часть 2: промпт-инжиниринг

Дисклеймер: данная лекция подготовлена в первую очередь для непрофильных студентов магистратуры и аспирантуры, которые используют ИИ в учебной, исследовательской и профессиональной деятельности. Материал носит вводный характер и содержит намеренные упрощения. В то же время лекция может быть полезна и более широкой аудитории пользователей ИИ. Буду признателен за замечания и предложения по улучшению.Серия «Базовый минимум» (4 части): Базовый минимум. Часть 1:  большие языковые модели;Базовый минимум. Часть 2:  промпт-инжиниринг (вы здесь);

продолжить чтение

RLM-Toolkit: Полная замена LangChain? FAQ часть 2

Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.

продолжить чтение

Похоже, GPT-5.3 уже на подходе — и это может быть один из самых серьёзных апдейтов OpenAI за долгое время

По информации из нескольких источников, новая версия модели проходит под кодовым названием Garlic. Если верить инсайдам, GPT-5.2 был лишь промежуточным чекпоинтом — своего рода «разбавленной версией» того, чем станет 5.3.Главная цифра — 2 000 токенов в секунду. Именно такую скорость сможет выдавать арендный кодинг на базе GPT-5.3 благодаря партнёрству OpenAI с Cerebras.

продолжить чтение

Базовый минимум. Часть 1:  большие языковые модели

Дисклеймер: данная лекция подготовлена в первую очередь для непрофильных студентов магистратуры и аспирантуры, которые используют ИИ в учебной, исследовательской и профессиональной деятельности. Материал носит вводный характер и содержит намеренные упрощения. В то же время лекция может быть полезна и более широкой аудитории пользователей ИИ. Буду признателен за замечания и предложения по улучшению.Серия «Базовый минимум» (4 части): Базовый минимум. Часть 1:  большие языковые модели (вы здесь);Базовый минимум. Часть 2:  промпт-инжиниринг;Базовый минимум. Часть 3:  RAG-системы; 

продолжить чтение

Рекурсивные языковые модели (RLM) – парадигма 2026 года

Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.Как мы планируем управлять чрезвычайно длинными контекстами

продолжить чтение

Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги

Команда AI for Devs подготовила перевод большой обзорной статьи о 2025 годе в мире LLM. Автор подводит итоги года: от vibe coding и coding-агентов до MCP, prompt injection, локальных моделей, браузеров с ИИ и «slop» как культурного феномена.Это третья часть моей ежегодной серии обзоров всего, что произошло в сфере LLM за последние 12 месяцев. Предыдущие выпуски см. в материалах Stuff we figured out about AI in 2023 и Things we learned about LLMs in 2024.Этот год оказался насыщенным и принес с собой множество самых разных тенденций.

продолжить чтение

Агентные системы для продакшена

Всем привет! Сегодня разберём, как проектировать агента, который доезжает до продакшена и приносит пользу бизнесу: от вопросов на старте до стека и практик, без которых он развалится в эксплуатации.Меня зовут Владимир, на данный момент работаю ML-инженером и разрабатываю мультиагентные системы. К сожалению, пока не могу похвастаться тем, что сократил 20 процентов сотрудников, но достижения имеются...

продолжить чтение

123456...1020...26
Rambler's Top100