llm.
Clawdbot — автономный агент с инициативой
К началу 2026 года стало заметно: формат "чат с LLM" перестал закрывать реальные инженерные задачи.Да, модель может подсказать решение. Но дальше начинается привычная цепочка: открыть терминал, написать код, проверить, подправить, запустить, отследить результат.Появляется закономерный вопрос: если модель знает, какие шаги нужны, почему она не может их выполнить сама?Отсюда и растущий интерес к автономным агентам - системам, где LLM используется не как чат, а как управляющий слой поверх реальной среды исполнения. Clawdbot - один из таких проектов. И он open-source!
Моя RAG-система: как я за 8 дней собрал RAG для своего сайта визитки
За 8 дней частичной занятости я собрал RAG-систему на NestJS + PostgreSQL (pgvector), которая обрабатывает ~11 000 чанков документов. Первая версия отвечала около 4 минут, после оптимизации - 40–60 секунд. Главный вывод: RAG - это не «векторный поиск + LLM», а в первую очередь подготовка данных, фильтрация контекста и аккуратная работа с промптами.Зачем я это делалГлавной целью проекта было создать RAG-систему, которая могла бы отвечать на вопросы на основе моих знаний и опыта, это позволило понять реальную работу с большим количеством документов.RAG-система была интегрирована с моим сайтом-визиткой
Базовый минимум. Часть 2: промпт-инжиниринг
Дисклеймер: данная лекция подготовлена в первую очередь для непрофильных студентов магистратуры и аспирантуры, которые используют ИИ в учебной, исследовательской и профессиональной деятельности. Материал носит вводный характер и содержит намеренные упрощения. В то же время лекция может быть полезна и более широкой аудитории пользователей ИИ. Буду признателен за замечания и предложения по улучшению.Серия «Базовый минимум» (4 части): Базовый минимум. Часть 1: большие языковые модели;Базовый минимум. Часть 2: промпт-инжиниринг (вы здесь);
7 pet-проектов с LLM: приватность, скорость и безопасность своими руками
Зачем всё это?В последние годы NLP развивается так быстро, что собрать LLM‑систему стало почти так же просто и естественно, как поднять веб‑сервис или собрать пайплайн данных. И всё же логичный вопрос: зачем делать что-то с нуля, если есть готовые SaaS и open-source решения, которые уже просто работают из коробки?Потому что готовые решения обычно оптимизированы под средний сценарий, а реальный мир почти всегда про частные ограничения: приватность данных, стоимость инференса, задержки, нестандартные источники знаний, требования безопасности и воспроизводимость.
За пределами LLM: детерминированный движок рассуждения на конечном алфавите
Часть 1. Детерминированный движок рассуждения на конечной таблице операции (в перспективе — замена LLM)Когда речь заходит о больших языковых моделях, все сразу отмечают их талант к сочинению и пересказу текстов. Но вот встроить такую модель в реальный продукт — задача куда более каверзная, чем кажется на первый взгляд. На практике вылезают три системных «подводных камня», из‑за которых работать с ними бывает откровенно неудобно.
OpenCode + Docker Model Runner для локальной разработки с ИИ
Команда AI for Devs подготовила перевод статьи о том, как использовать OpenCode вместе с Docker Model Runner для локальной разработки с LLM. В центре внимания — контроль над кодом, данными и затратами: модели запускаются локально, контекст не уходит во внешние сервисы, а ИИ-ассистент становится частью вашей инфраструктуры, а не сторонним SaaS. Практический разбор для тех, кто хочет использовать ИИ в разработке без компромиссов по безопасности и стоимости.
ИИ-сингулярность пришла, просто это ещё не все заметили
Я не шучу, Илон Маск прав — мы действительно уже существуем в эпоху ИИ-сингулярности. Что такое сингулярность? По сути — это то, что компьютеры принимают какие-то решения, но мы не можем проверить, почему они это делают, и можем только довериться решению. Фантастическая литература приучила нас к тому, что это будет выглядеть как что-то вроде ответов на «самый главный вопрос Вселенной и всего такого», прыжков гиперреальности и вообще бога-из-машины.
Бустер для мозга. Projects в Claude. Методологическая магия
СпойлерМожет показаться что я рекламирую Claude - нет, у ChatGPT есть такая же штука.Захочется наброситься со словами - да это же очевидно, открыл Америку! - жгите слогом.Нейроскептики скажут - опять доверили стохастическому генератору ответственное дело, куда катится мир! - ОПС, ребятаТут как в FPV - если есть 10 лет опыта, то технологии настолько быстро меняются, что последний год всегда перечеркивает весь предыдущий опыт.О предметной областиУ меня есть продуктовая компания, которая производит и продает контроллеры, позволяющие управлять освещением. Это тысячи электронных плат в год.
Искусственный интеллект не становится умнее. Мы становимся глупее
В основе этого материала лежит вопрос о природе коммуникации. В чем суть природы общения между людьми, как не передача ценного опта, мнения или обсуждения идеи? Общий интерес и мотив как к познанию другого человека, таки попытка донести свою мысль. Параллельно с этим общение можно рассмотреть, как акт развлечения. И отсюда вопрос: если искусственный интеллект возьмет на себя управление нашим общением, значит ли это, что мы разучимся доносить свои смыслы? Или внезапно обнаружим, что в разуме конкретного человека или нас самих никогда и не было того, что можно назвать «смыслом»?

