llm.
МСР: Трое в лодке, не считая контекста
Часть 2. Ресурсы (Resources): Даем модели «глаза»В прошлой статье мы познакомились с основными понятиями протокола Model Context Protocol и написали простейшее приложение, которое позволило LLM читать файлы. Для этого мы использовали tools с оговоркой, что сделали это для упрощения, чтобы не лететь с места в карьер.Мы уже говорили, что если tool можно сравнить с методом POST, то resource сравнивали с GET. Ресурсы (Resources) — это пассивные источники данных, которые MCP-сервер отдает клиенту для чтения. Такими источниками могут быть содержимое файла, лог консоли, строка в базе данных.
От токенизации до генерации: как я с нуля написал GPT для Python-кода
Авторское право и лицензия Код, представленный в статье, написан Await IT (await.it.bx@gmail.com) и распространяется под лицензией MIT с обязательным указанием авторства. Дата публикации кода: 01.06.2026 GitHub репозиторий: https://github.com/Await-IT/GPT-Like © 2026 Await IT. Все права на исходный код защищены.Введение: почему своя GPT?
В умелых руках и LLM — балалайка
Очень понравилась статья про элитный вайбкодинг. Выражаю восхищение автору за решение вопроса со сложным клиентом.Но один тезис, который виден как у автора, так и в комментариях, хочется затронуть отдельно.
Почему промпт-инъекции — это симптом, а не болезнь безопасности ИИ
Что вы представляете, когда кто-то говорит об AI-driven компании? Может быть, как чат-боты улучшают опыт клиентов? Или как сотрудники разворачивают любые модели для своих нужд? А может, как ИИ-агенты разбирают кучу электронных писем и назначают встречи в календаре, копилоты пишут код за разработчиков и исправляют баги? Что в этой красивой истории может пойти не так и почему безопасность систем искусственного интеллекта не ограничивается защитой от джейлбрейков и промпт-инъекций – разберёмся в этой статье.
Проблемы людей и нейросетей
Эта статья написана без участия ИИ. Для простых смертных. Упрощена.Сейчас тренд на замену людей нейросетями, вайбкодинг, и другие вещи, которые завернуты в фантик «Беззаботного будущего», всё это мне напоминает предыдущий тренд, который был до появления ИИ — «Успешный успех». Нам продают не технологии, а чувства простоты, на которое люди каждый раз охотно ведутся.По ощущениям, это тот же барабан с цифрами 777, нам показывают пару удачных прокруток, «джекпоты», счастливые лица, а реальная статистика, цена попыток, и неизбежные промахи остаются за кадром.
RAG (Retrieval Augmented Generation) — a simple and clear explanation
People keep asking me what RAG is (in the context of large language models), and I keep wanting to share a link to an article on habr that would explain the concept of RAG (Retrieval Augmented Generation) in simple terms yet in detail, including instructions on how to implement this "beast." But there is still no such article, so I decided not to wait and write one myself.If something in the article is unclear or there are aspects of RAG that need to be elaborated on, don't hesitate—leave comments; I'll break it down and add more if necessary. Okay, let's go…RAG (Retrieval Augmented Generation) is a way of working with large language models where the user writes their question, and you programmatically mix in additional information from some external sources to that question and feed it, as a whole, into the language model. In other words, you add additional information to the model's context, based on which the language model can give the user a more complete and accurate answer.The simplest example:The user asks the model: "What is the current dollar exchange rate?"
Три агента, один репозиторий, ноль менеджеров. Как я построил конвейер, где ИИ пишет, ревьюит и деплоит код
Месяц назад я закинул задачу на рефакторинг модуля авторизации и пошёл варить кофе. Кофе я допить не успел. Через двадцать три минуты пришло уведомление в ТГ: «staging обновлён, 94 теста пройдено, 0 упало».Открыл репозиторий. Ветка, diff на два экрана. Code review от второго агента. Три замечания, два по делу. Третий агент прогнал тесты и задеплоил.Код был чище, чем я обычно пишу по пятницам.Но до этого момента были три месяца граблей, упавший продакшен, и одна ночь, когда агенты сделали десятки бесполезных коммитов. Обо всём по порядку.Один агент. Один мозг. Ноль сомнений
Veai 5.4: изображения в чате, компрессия контекста и до 70% экономии на Anthropic
Новая версия Veai 5.4 (плагин к IntelliJ IDEA со своим AI агентом для написания кода, тестирования и отладки) — это практичные улучшения для повседневной разработки.Персональные пользователи теперь могут прикладывать изображения прямо в чат (удобно для фронтенда и UI-тестирования), запросы к моделям Anthropic стали до 70% дешевле за счёт улучшенного кэширования, а большие чаты автоматически сжимаются без дополнительных запросов к LLM.Появились новые сценарии для автоматического разрешения merge-конфликтов и
Frontend Status: свежий дайджест фронтенда и AI — 10.02.2026
Frontend Status: Привет! Свежий дайджест фронтенда и AIПривет!Это четвертый выпуск Frontend Status — дайджеста по фронтенд-разработке.В этом выпуске:JS/TS: Evan You — Vite, Rust, VoidZero; State of JS 2025 и новый интерфейс npm (npmx).AI:

