контекст.

Контент-модерация в ретроспективе: почему тексты 100-летней давности не проходят фильтры 2026 года

Дисклеймер: Статья не даёт правовой оценки историческим деятелям и событиям. Цель — показать, как изменились юридические и платформенные нормы в отношении публичных призывов. Все цитаты из архивных источников приведены исключительно в исследовательских целях.Дано: задача для ML-инженераПредставьте, вы обучаете большую языковую модель. В корпус данных попадает Полное собрание сочинений крупного политического автора начала XX века.Что будет, если модель начнёт генерировать текст в его стиле без пост-фильтров?

продолжить чтение

Кто сегодня разрабатывает с ИИ?

Два года назад, чтобы написать веб-приложение, нужно было знать язык программирования, фреймворк, базу данных, уметь деплоить и дебажить. Сегодня достаточно уметь сформулировать задачу.ИИ радикально снизил порог входа в разработку. Это не гипотеза – это статистика:63% пользователей, практикующих вайбкодинг, идентифицируют себя как не-разработчики (Second Talent, 2026)Gartner прогнозирует, что к 2026 году «citizen developers» превысят число профессиональных разработчиков 4:1 (VentureBeat/Gartner)

продолжить чтение

Контекст – ветер перемен, сдувающий капитализацию облачных решений и рабочие места

Недавно я натолкнулся на статью технологического аналитика Эвана Армстронга Context is King. Аргументы, изложенные в ней, по мнению моих знакомых экспертов отрасли, звучат весомо, логично и даже пророчески. Поэтому перспективы изменений в повседневной работе и процессах компаний в ближайшем будущем для одних выглядят многообещающими, а для других — тревожными.Прогнозы о том, что дальнейшее развитие искусственного интеллекта может как цунами смыть с рынка труда десятки миллионов рабочих мест, уже не кажутся фантастикой — скорее, это новая, неизбежная реальность.

продолжить чтение

Как показать модели пальцем, что важно

Вы наверняка замечали: один и тот же вопрос в ChatGPT или Claude иногда даёт отличный ответ, иногда – качество ответа не соответствует ожиданиям. Многие списывают это на «непредсказуемость AI». На самом деле у этого есть и структурная причина.В апреле 2025 года Anthropic публиковали официальную документацию по промпт-инжинирингу для Claude 4.6 – Prompting Best Practices. Это технический документ для разработчиков API. Массовому пользователю читать его не предполагается.Однако, там есть пара инсайтов, которые работают и буду полезны всем.Как модель «смотрит» на текст

продолжить чтение

Ваш CLAUDE.md делает агента тупее. Исследование на 138 репозиториях это доказало

Полгода я собирал идеальный CLAUDE.md. Вычитывал каждую строку. Добавлял секции: «используй yarn, не npm», «тесты запускай так», «структура проекта вот такая». 200 строк чистого, выстраданного контекста.А потом учёные из ETH Zurich прогнали 5694 pull request'а через четыре модели - и выяснили, что мои 200 строк увеличивают расходы на 20% и снижают success rate на 3%.Три процента. В минус.Собственно, исследованиеВ феврале 2026-го Thibaud Gloaguen, Niels Mündler, Mark Müller, Veselin Raychev и Martin Vechev опубликовали статью «Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?» Авторы из ETH Zurich и LogicStar.ai. Я нашёл её на arXiv, прочитал целиком, полез в данные.

продолжить чтение

Превращаем Видео-уроки в навыки для Claude и других с помощью одного инструмента

Наткнулась на мощный open-source инструмент Skill Seekers, который помогает быстро запаковать знания из видеоуроков в формат для Claude, Gemini, OpenAI, RAG-пайплайнов и AI

продолжить чтение

Проблемы людей и нейросетей

Эта статья написана без участия ИИ. Для простых смертных. Упрощена.Сейчас тренд на замену людей нейросетями, вайбкодинг, и другие вещи, которые завернуты в фантик «Беззаботного будущего», всё это мне напоминает предыдущий тренд, который был до появления ИИ — «Успешный успех». Нам продают не технологии, а чувства простоты, на которое люди каждый раз охотно ведутся.По ощущениям, это тот же барабан с цифрами 777, нам показывают пару удачных прокруток, «джекпоты», счастливые лица, а реальная статистика, цена попыток, и неизбежные промахи остаются за кадром.

продолжить чтение

Как легко и просто создавать Skills с помощью Agent Skills в Manus

Agent Skills в Manus - это способ превращать удачные сессии с агентом в переиспользуемые сценарии /воркфлоу для агента

продолжить чтение

Как уменьшить галлюцинации LLM: 3 способа дать контекст

продолжить чтение

RLM-Toolkit: Полная замена LangChain? FAQ часть 2

Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.

продолжить чтение

123