На волне хайпа: Security-аудит AI-агента Clawdbot
TL;DR: Провёл глубокий аудит безопасности популярного open-source AI-агента. Нашёл eval(), отсутствие rate limiting, и составил каталог из 50 реальных сценариев атак. Под катом — как защититься, если вы уже дали ИИ доступ к своей системе.Введение: AI-агенты захватывают мир разработки2026 год. AI-агенты перестали быть экзотикой. Теперь каждый второй разработчик использует какого-нибудь «умного помощника» с доступом к терминалу, браузеру и файловой системе.Звучит удобно. Но возникает вопрос: насколько это безопасно?Я решил это выяснить. Взял популярный open-source проект — Clawdbot
Kimi K2.5: Как научить нейросеть не бояться параллельности
Moonshot AI выкатили K2.5. Пресс-релиз трубит про «самую мощную open-source модель», но я бы хотел поговорить о другом — о том, что они сделали с агентами.
Magneto Solver: Пишем симулятор магнитных полей на WebGPU и боремся с тензором Максвелла
maneto solverМечта об идеальном двигателеМне кажется, я знаю, как должен быть устроен идеальный электродвигатель. Но чтобы это доказать, нужен инструмент.Существующий софт убивал все желание творить:Ansys Maxwell - мощный, но тяжелый и часто просто отказывается запускаться.
Нам говорят, что AI безопасен. Confer — первый случай, когда это почти правда
Если вы хотите пользоваться LLM, но при этом вам важна приватность данных, то до недавнего времени у вас, по сути, был один вариант — поднимать локально собственную языковую модель.Ситуация меняется. Создатель мессенджера Signal, Мокси Марлинспайк, запускает приватный AI‑сервис Confer с основным фокусом на конфиденциальность и безопасность данных.Можно ли считать Confer
Clawdbot — автономный агент с инициативой
К началу 2026 года стало заметно: формат "чат с LLM" перестал закрывать реальные инженерные задачи.Да, модель может подсказать решение. Но дальше начинается привычная цепочка: открыть терминал, написать код, проверить, подправить, запустить, отследить результат.Появляется закономерный вопрос: если модель знает, какие шаги нужны, почему она не может их выполнить сама?Отсюда и растущий интерес к автономным агентам - системам, где LLM используется не как чат, а как управляющий слой поверх реальной среды исполнения. Clawdbot - один из таких проектов. И он open-source!
За пределами LLM: детерминированный движок рассуждения на конечном алфавите
Часть 1. Детерминированный движок рассуждения на конечной таблице операции (в перспективе — замена LLM)Когда речь заходит о больших языковых моделях, все сразу отмечают их талант к сочинению и пересказу текстов. Но вот встроить такую модель в реальный продукт — задача куда более каверзная, чем кажется на первый взгляд. На практике вылезают три системных «подводных камня», из‑за которых работать с ними бывает откровенно неудобно.
Клонирование голоса по 3-секундному образцу локально: обзор Qwen3-TTS, примеры на русском и портативная версия
Всем привет! Команда Qwen от Alibaba выложила в открытый доступ Qwen3-TTS — нейросетевую модель для синтеза речи с клонированием голоса. Сегодня хочу рассказать об этой технологии подробнее и поделиться портативной версией.
Можно ли доверить важные документы open-source LLM: эксперимент Рег.облака и Raft
Привет, Хабр! На связи команды Рег.облака и Raft.
RLM-Toolkit: Полная замена LangChain? FAQ часть 2
Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.

