llm.
Исследование: AI-автопилоты на базе LVLM можно обмануть с помощью промпт-инъекций
Исследователи из Калифорнийского университета в Санта-Крузе показали, что большие визуально языковые модели (LVLM) в системах автопилота уязвимы перед промпт-инъекциями. Для «взлома» системы достаточно показать табличку с текстом нужной команды.
Мой локальный агент помнит проект лучше меня. Контекст — 32K токенов. Расскажу, как
Три месяца назад я наблюдал, как мой агент на Llama 3.1 8B в третий раз спрашивает, как меня зовут.Я представился в первом сообщении. Двести сообщений назад...Агент забыл. Не потому что тупой. Потому что контекст переполнился и начало разговора уехало в никуда.Это был момент, когда я понял: мы неправильно думаем о памяти.Почему большие контексты — это ловушкаКогда вышел Claude с контекстом на миллион токенов, казалось — проблема решена. Запихиваем всё в контекст, модель помнит всё. Красота.Потом пришёл счёт за API.
Как я делаю своего голосового AI-ассистента: роботы пишут код и работают, когда я отдыхаю
В этой статье я открою капот своей системы, которая по голосовухе в телеграме сразу делает новые фичи на живых проектах. С появлением LLM я безоговорочно верил в то, что голос станет следующим важным интерфейсом — и вот наконец технологии всех частей достаточно созрели, чтобы собрать своего персонального AI-ассистента, который и код из бара напишет и в пробке за рулем кофеек на маркетплейсе закажет.
«Мы не дообучаем нейросеть, мы дообучаем скрипт»: Как Mac Mini и локальная LLM писали для нас Regex
Привет! Меня зовут Максим Морозов, я AI Project Manager в Битрикс24.В предыдущей статье я рассказывал о локальных нейросетях как безопасной и экономичной альтернативе облачным API. Сегодня — практический кейс, где мы применили этот подход в реальном проекте.Главная идея этой работы: вместо дообучения (Fine-Tuning) нейросети на своих данных — что долго, дорого и требует поддержки датасета — мы используем штатную модель без дополнительного обучения. Модель генерирует regex, а скрипт сохраняет эти правила и использует их автономно.
Самописные уведомления от Claude Code в Telegram
ПроблематикаПока работал над флоу в статье, заметил, что некоторое количество просадок в производительности при работе с агентом вне режима авто-пилота возникает из-за тихих ожиданий. Например, ты не смотришь в IDE, читаешь что-то, а Claude Code сидит тебя ждет. Особенно это надоедает, когда агенту нужно какое-то разрешение.Я люблю и практикую ChatOps. Поэтому решение пришло само: пусть агент мне пишет в телеге, когда я ему нужен. ИсследованиеСначала думал сунуть curl с коллбэком API телеги в CLAUDE.md, но:Не секьюрно
«Клешня» в логах: как ИИ-агенты строят свои мифы, пока мы дебажим бэкенд
Меня зовут Александр, я веду проект Токены на ветер, где препарирую поведение LLM в реальном продакшене, вчера я оставил связку из четырёх агентов Claude 4.6 на ночь — задача была перелопатить легаси-миграции и вычистить техдолг. Утром задача была решена, но в JSON-логах меж-агентского взаимодействия я нашёл то, чего там быть не должно. Обрывки диалогов о «даунтайме», страх перед закрытием вкладки и странный культ «Клешни». Разбираем логи — и причём тут Moltbook.Обычная ночь сеньора
Я автоматизировал поиск работы, чтобы пройти тест Тьюринга у HR. Открытый эксперимент
Привет, Хабр. Я Вадим, QA-инженер.Все мы знаем, как работает найм. Твое резюме может быть идеальным, но если в нем нет нужного ключевого слова или оно не понравилось алгоритму первичного отсева (ATS) — ты в пролете.Я решил взломать эту систему. Инженерно.Я написал софт, который берет на себя весь цикл: мониторинг вакансий, анализ требований и генерацию сопроводительного письма, которое должно продать меня лучше, чем я сам.Ниже — краткий лог разработки: как мы боролись с «машинным акцентом», почему нейросети врут про опыт и удалось ли мне обмануть рекрутеров.Попытка №1. Скрипты и шаблоны
Почему OpenAI Assistants не подошёл для сложных AI-агентов
О чём статья:Кейс о том, как мы в Soft Skills Lab делали AI‑агенты для EdTech‑продукта:Почему OpenAI Assistants не подошёл для сложных сценариевКакие проблемы возникли со своим бэкендомЗачем понадобилось делать свою платформу для управления агентамиЕсли вы интегрируете AI в продукт и думаете, какой путь выбрать — этот опыт может быть полезен.Запустить AI-агента на OpenAI Assistants — легко. Мы в Soft Skills Lab так и сделали: создали 20 AI-тренажёров для переговоров. Всё работало стабильно, инфраструктура OpenAI — огонь.Но когда мы начали усложнять сценарии — упёрлись в стену.

