Как бенчмаркать ИИ, и как это делаем мы?
Одна из сложностей с LLM: как понять, какая модель способнее? Их создатели наперебой кричат «мы совершили революцию», но как пробиться сквозь хайп и измерить, кто чего реально добился?
Принципиальная детерминированность нейросетей и безопасность
Одним из ключевых требований к информационной системе является воспроизводимость результатов. Однако многие специалисты сталкиваются с трудностями, когда попытка повторить эксперименты приводит к отличающимся показателям. Такая ситуация известна как недетерминированность: модель выдаёт различные результаты при одинаковых входных данных и конфигурации.Вместе с тем, несмотря на распространённое заблуждение, источником проблемы чаще всего становятся не свойства самой нейросети, а упущения на этапах проектирования разработки и эксплуатации.
От правил корреляции к когнитивному ассистенту: что меняется в архитектуре SOC с приходом ИИ
Автор: Искандер Тиморшин, владелец продукта Innostage TDIR Интеллектуальная автоматизация расследования инцидентов ИБ. Почему правил корреляции больше недостаточно? Долгое время ядром любого центра мониторинга и реагирования на киберугрозы (далее по тексту – SOC) оставался корреляционный движок, то есть набор правил для автоматизированного поиска паттернов атак, например, «5 неудачных входов» + «успешный вход» + «активность в БД» = «подозрение на компрометацию» типа 5 failed logins = brute force (5 неудачных попыток входа в систему = метод перебора паролей).
Правда все: Убьет ли ИИ достоверность в онлайне?
Дипфейком уже даже пенсионерок не удивить. И слава Богу мы научились более-менее отличать их от реальности. Возможно в игру здесь вступил какой-то пока еще не открытый, а может и принципиально новый механизм когнитивной эволюции.Но AI продолжает тренироваться с упорством олимпийского фехтовальщика и уколы его становятся больнее и метче. А некоторые виды AI-медиа для экспертизы невооруженным глазом (или ухом) фактически уже потеряны. Особенно это касается текста.Что же нас ждет в недалеком будущем с такими темпами?
Ваш любимый ИИ не умеет считать. Что ещё скрывает текстовая модель?
Технократический разбор для инженеров и бизнес-аналитиков. Без преувеличений и продающих лозунгов.Данная статья представляет собой результат кабинетного исследования об основных особенностях работы ИИ (LLM, модель). Здесь в систематизированном виде относительно простым языком описано, как реализуется вся та “магия” про ИИ, с которой мы сталкиваемся сами или слышим в восторженно-продающих материалах.Сразу уточню, что под ИИ тут понимается именно публичная Большая языковая (текстовая) модель (LLM), вроде ЧатаГПТ, ГигаЧата, Дипсика и др.В этой статье мы:
Продолжаем приручать ИИ: рефлексия агента, интервью пользователя, God agent
Мы привыкли, что в нашем любимом программировании постоянно происходят изменения. Новые версии фреймворков и библиотек, новые языки и подходы к разработке ПО. Именно поэтому «ИТ — это сфера, где нужно постоянно учиться», так звучит наша традиционная мантра.В последнее время всё меняется слишком быстро. Причина тому — генеративные языковые модели. Новые знания становятся deprecated спустя несколько месяцев. Вчерашние революционные подходы сегодня выглядят как рудимент. Есть один большой плюс такой тенденции: если вы вдруг проспали старт ИИ-гонки, наверстать упущенное и догнать лидеров можно достаточно быстро.
Gemini научили использовать Google Photos для создания персонализированных изображений
В Google представили новые способы использования данных в Gemini с помощью Nano Banana 2 и Google Photos, чтобы создавать персонализированные изображения.

