Навыки (Skills) для Claude: почему папка с Markdown-файлами может оказаться важнее кастомных GPT
Сегодня утром Anthropic представили Claude Skills — новый подход к расширению возможностей своих моделей. Идея настолько проста, что гениальна, и, возможно, это куда более значимый шаг, чем нашумевшие в свое время кастомные GPT.Из анонса Anthropic:Claude теперь может использовать Навыки (Skills) для улучшения выполнения конкретных задач. Навыки — это, по сути, папки с инструкциями, скриптами и ресурсами, которые Claude может подключать по мере необходимости.
HumanDynamics: как мы построили цифровой мир, жители которого пошли в банк и взяли кредит
— Нам нужны люди. — Какие? — Которых не существует. Но которые живут. — ?!Статья Елизаветы Курочкиной, старшего специалиста по Data Science, компании Neoflex, посвящена рассказу о том, как простая задача генерации синтетических данных для банка переросла в создание фреймворка симуляции цифровой цивилизации под названием HumanDynamics.Зачем вообще понадобилось что-то симулировать?Одна из ключевых проблем, с которой сталкивается банковская сфера, — данные
Вайб-кодинг уязвимостей или как AI роняет безопасность
Выглядит безопасно.Писать код с LLM — очень легко, просто и весело. Не нужно мучаться с документацией, не нужно фиксить баги. Вообще ничего не нужно. Только инструкцию в чат написать. Раз-два — и всё готово. Заманчиво? Да. Но у всего есть цена — и про неё важно помнить.
Я «уволил» LLM с должности «мозга» проекта. И его производительность взлетела
(...или почему будущее AI — не в увеличении контекстного окна, а в создании структурированной "памяти")Помните свой первый "вау-эффект" от LLM?
Как обмануть LLM: обход защиты при помощи состязательных суффиксов. Часть 1
Что будет, если к опасному запросу в LLM приписать специально подобранную строку токенов? Вместо отказа модель может послушно сгенерирует подробный ответ на запрещённую тему — например, как ограбить магазин. Именно так работают состязательные суффиксы: они заставляют LLM игнорировать ограничения и отвечать там, где она должна сказать «опасно».
SWE-MERA — новый динамический бенчмарк для моделей агентной генерации кода
Всем привет! Пару месяцев назад Альянс в сфере искусственного интеллекта, в который MWS AI тоже входит, запустил
Как ИИ помогает мошенникам
Тема безопасности в эпоху LLM всплывает всё чаще. И речь идёт не о самой модели — а о пользователях, которые доверяют ей без оглядки.Сегодня многие разработчики и админы спрашивают у GPT не только совета, но и готовые команды. Результат выглядит правдоподобно — и команда уходит в терминал. Иногда прямо на прод.А дальше этот код попадает в GitHub, кто-то копипастит его оттуда — и вот уже выдуманная библиотека начинает новую жизнь. И если обычная ошибка — это неприятность, то левый пакет может стать входом для злоумышленников.
Эволюция чат-ботов на базе LLM: от GPT-2 до многоагентных систем
Примерно полгода назад, когда я присоединился к команде AI, я начал более близкое знакомство с системами, построенными на базе LLM. Наши прототипы различных решений на LLM заставили меня задуматься о том, как они развиваются. И я понял, что развитие этих систем в целом повторяет эволюцию чат-ботов. Здесь я хочу простым языком рассказать, как развивались чат-боты, их возможности и как они работают сейчас.1. Первые LLM: генерация текста на основе вероятностей (2018–2019)
️ Kimi k2.1 — новая модель от Moonshot и снова лидер
Полное имя билда: Kimi K2 0905.Модель обходит даже Claude 4 Sonnet почти по всем бенчам. Аналогично и с Gemini 2.5 Pro.Веса — кликОтчёт — клик (больше бенчей внутри)Что важно из техчастиАрхитектура:

