Тихая эволюция zero-shot энкодеров. От UniNER до GLiNER 2
Эта статья является адаптацией моей статьи, опубликованной в Towards AIIntroБольшие языковые модели показывают впечатляющую обобщающую способность, причём не только в задачах генерации текста вроде QA-ассистентов, но и в классификации, распознавании именованных сущностей (Named Entity Recognition) и других NLP-задачах.С одной стороны, мы на старте эпохи AI агентов, где приложения с тулами управляются
Безопасность ИИ: новый рынок для интеграторов и как на нем заработать
ИИ-гонка: инновации любой ценойИскусственный интеллект в корпоративном сегменте РФ перестал быть экспериментальной технологией. Согласно исследованию Сбера
Что такое OpenClaw, о котором все говорят?
Для начала давайте я вас успокою - это не тот AGI, который собирается отобрать у вас работу. Ну, пока что не собирается 🤔.Хотя демонстрации его работы выглядят впечатляюще - и они действительно впечатляют, особенно если учесть, насколько простые идеи лежат в основе.OpenClaw - это агент с открытым исходным кодом, и очевидно, что он работает поверх LLM-модели, но он - нечто большее. Он может работать автономно, в фоновом режиме, инициировать действия и диалоги, даже самосовершенствоваться (привет, Тронглеты) - и всё это самостоятельно. Получается, он обладает разумом?
Обзор состояния AI за 2025 год и прогнозы на будущее
Год почти прошел и пришло время сделать обзор State of AI на этот год и прогнозы на следующий. За основу были взяты отчеты ведущих организаций мира: MIT, PwC, OpenAi, Open Router и тп.Парадокс “Высокие темпы внедрения - слабая трансформация” 😢
Построение AI агентов в медицине
Любой, кто пробовал создать ИИ-ассистента для регулируемых областей вроде здравоохранения, знает - это не просто. ��ужно балансировать между полезностью/гибкостью и политикой "не навреди". Особенно сложно, когда пытаешься запихнуть такие разные и конфликтующие поведения в одну модель.В медицине, финансах и других спецобластях нельзя просто взять RAG, который его фанаты выдают за серебряную пулю - сколько бы наворотов (графы знаний, переранжирования) ты сверху не накинул. Проблема в том, что контекстное окно всё ещё ограничено, а RAG по сути костыль, чтобы обойти неспособность моделей впитывать все нужные спецзнания.
Как мир регулирует ИИ
К 2025 году в мире искусственного интеллекта уже больше нормативных документов, чем рабочих моделей. США публикуют руководства для безопасного использования LLM, Европа принимает AI Act, в ОАЭ и Сингапуре появляются свои принципы ответственного ИИ. Россия тоже не стоит в стороне и нормативные требования активно у нас разрабатываются.Уже действующие и готовящиеся нормы ЕС, США, Китая и России требуют от ИБ не просто контроля моделей, но и полноформатного аудита, документирования и управления реальными угрозами. Мы в HiveTrace
Rules File Backdoor. Как атакуют GitHub Copilot и Cursor и почему «это ваша проблема»
Продолжаем серию статей о взломах ИИ. В прошлый раз было про ИИ-агенты, а сегодня не менее интересный кейс. В начале 2025 года исследователи Pillar Security обнаружили новый вектор атаки, который переворачивает представление о безопасности AI-ассистентов вроде GitHub Copilot и Cursor. Под видом безобидных конфигурационных файлов – тех самых, что задают ИИ правила написания кода – хакерам удалось протащить бэкдоры, вызвав цепную реакцию утечек и ошибок. Давайте разберемся, как безобидный файл с «правилами» превратился в оружие против цепочек поставок.
Из зала на сцену: как, зачем и для чего выступать на конференции
Привет, Хабр! Меня зовут Евгений Кокуйкин. Я СЕО HiveTrace и сооснователь Raft. Занимался внедрением технологических решений в проектах Microsoft, Сбер, Diasoft, а сейчас переключился на обеспечение безопасности генеративного ИИ. Хочу рассказать о том, как созрел до того, чтобы стать докладчиком, почему подал свой первый доклад, откуда это пошло, как я участвовал в конференциях. Что от этого меняется, как помогает саморазвитию и бизнесу. Возможно, это поможет тем читателям, кто только думает подать заявку на конференцию.
Агент с лицензией на ошибку
Как ломают ИИ-агентов. Часть 1: Кейс с Operator ChatGPTВ 2025 году ИИ-агенты стали настоящим медиа-феноменом: Y-Combinator объявляет ИИ-агенты ключевым направлением для инвестиций в 2025 году;управляющий венчурного фонда Dragonfly называет ИИ-агенты главным нарративом криптосообщества и технологической индустрии на 2025 год;лидеры индустрии LLM – OpenAI и Anthropic – выпускают на рынок своих Operator и Claude Computer Use.Ну а нас, естественно, больше всего интересует вопрос уязвимости таких систем: у агентов все больше возможностей, а значит и поверхностей атаки. Наша команда работала над отчетом OWASP
GPT-4o vs YandexGPT: как мы отлаживали метрики в DeepEval из-за требований ИБ
Введение: Наш самый полезный багПривет, я Рамиль, QA-инженер в компании Raft. В своей работе я фокусируюсь на автоматизации тестирования, в том числе для LLM-решений, где часто использую связку Pytest и специализированных фреймворков. Эта статья — история из нашей недавней практики.Когда перед нами встала задача построить автоматизированную систему оценки (evaluation) для LLM-классификатора, который должен был сортировать запросы клиентов, выбор инструментов казался очевидным. Мы взяли DeepEval

