Natural Language Processing. - страница 11

Как заработать на LLM, перестав писать «правильные промпты»

В этой статье я бросаю вызов общепринятому представлению о больших языковых моделях как о «тупых исполнителях», которые ничего не понимают, галлюционируют, но позволяют получить результат быстрее (нередко за счет качества). Подобные мифы активно распространяются в сети, а также на курсах, на которых обучают «правильно» писать промпты. Я на Хабре уже написал несколько статей, разоблачающих отсутствие мышления у LLM, но здесь я опишу способность больших языковых моделей решать задачи, людям недоступные

продолжить чтение

Сделай бота для работы

Управление AI-агентами с помощью чат-сообщенийСогласно Hype Cycle от Gartner

продолжить чтение

От текста к токенам: как работают пайплайны токенизации

Команда AI for Devs подготовила перевод статьи о том, как поисковые системы превращают обычный текст в токены и почему этот процесс важнее, чем кажется. Разбираем каждый этап: нормализацию, токенизацию, стоп-слова, стемминг и то, как всё это влияет на качество поиска.Когда вы вводите предложение в строку поиска, легко представить, что поисковая система видит то же самое, что и вы. На самом деле поисковые системы (или поисковые базы данных

продолжить чтение

Чем же типичный заметковед занимается, когда работает со своими записями? Типизация деятельности заметковеда

Небольшое, но важное уточнение того, откуда этот исследовательский отчет.Меня зовут Рустам Агамалиев, я учитель и исследователь, автор нескольких книг и некоторого множества публикаций. На данный момент моя работа происходит на стыке педагогики, когнитивистики, лингвистики и психологии; я в основном работаю с детьми и студентами.Последние 7 лет занимаюсь развитием сообщества

продолжить чтение

Китайцы снова радуют. Вышла GLM-4.7 – заметный апгрейд именно для агентного кодинга

Z.ai представили GLM-4.7 — новую версию своей модели для кодинга, и апдейт получился не косметическим. Основной фокус — агентные сценарии, терминал и устойчивость на длинных задачах.По бенчмаркам рост выглядит вполне предметно: SWE-bench Verified — 73.8% (+5.8%), SWE-bench Multilingual — 66.7% (+12.9%), Terminal Bench 2.0 — 41% (+16.5%).

продолжить чтение

ИИ-копайлот для продакт менеджеров, маркетологов, дизайнеров, исследователей + шаблон n8n

Сегодня я поделюсь опытом создания AI Agent Copilot по сути это помощник, который забирает на себя механическую часть дискавери и превращает хаос из вкладок, заметок и скриншотов в понятный результат, который можно сразу обсуждать с командой. Этот копайлот будет уметь много всего, позже мы добавим Lean Canvas, Business Model Canvas Остервальдера, черновики PRD, подготовку гипотез, план исследования, формулировку выводов, но начну с самого полезного и самого частого, с ИИ агента который будет проводить конкурентный анализ, потому что он почти всегда в продуктовой работе, и почти всегда отъедает кучу времени.

продолжить чтение

Проектируем ИИ-агента для конкурентного анализа

Сегодня я поделюсь опытом создания AI Agent Copilot по сути это помощник, который забирает на себя механическую часть дискавери и превращает хаос из вкладок, заметок и скриншотов в понятный результат, который можно сразу обсуждать с командой. Этот копайлот будет уметь много всего, позже мы добавим Lean Canvas, Business Model Canvas Остервальдера, черновики PRD, подготовку гипотез, план исследования, формулировку выводов, но начну с самого полезного и самого частого, с ИИ агента который будет проводить конкурентный анализ, потому что он почти всегда в продуктовой работе, и почти всегда отъедает кучу времени.

продолжить чтение

Андрей Карпаты: итоги LLM-экосистемы за 2025 год

Команда AI for Devs подготовила перевод обзорной статьи о ключевых сдвигах в развитии LLM в 2025 году. Андрей разбирает, почему Reinforcement Learning from Verifiable Rewards стал новой базовой стадией обучения, откуда взялся «рваный интеллект», как появился новый слой LLM-приложений и почему ИИ всё чаще «живёт» прямо на компьютере разработчика.2025 стал насыщенным и очень сильным годом прогресса в области LLM. Ниже — список лично для меня наиболее заметных и в какой-то мере неожиданных «смен парадигмы» — вещей, которые изменили ландшафт и концептуально выделились.1. Reinforcement Learning from Verifiable Rewards (RLVR)

продолжить чтение

Виды Structured Output и способы их реализации

Structured Output это способ “заставить” модель отвечать в строго заданном формате.Пример. Имеется пачка неструктурированных объявлений о продаже недвижимости.Продается однокомнатная квартира площадью 35,6 кв.м. на 11-м этаже 22-этажного монолитного дома по адресу: ул. Академика Королёва, 121. Год постройки — 2018, что гарантирует современное качество и надёжность конструкции. Дом оснащён подземной парковкой.

продолжить чтение

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение