llm. - страница 38

llm.

IT-лидеры видят большой бизнес-потенциал в малых моделях ИИ

ИТ-лидеры видят большой бизнес-потенциал в малых моделях ИИ благодаря гибкости, низкой стоимости и нацеленности на конкретные задачи малые языковые модели (SLM) лучше подходят для бизнес-специфичных приложений и вскоре могут обойти LLM по использованию в корпоративной среде.Малые языковые модели (SLM) дают CIO больше возможностей разрабатывать специализированные, отраслевые AI-приложения, эксплуатация которых дешевле, чем систем на базе универсальных больших языковых моделей (LLM).

продолжить чтение

Знания из Википедии теперь проще использовать для ответов AI-моделей

продолжить чтение

Как обмануть LLM: обход защиты при помощи AutoDAN. Часть 2

В прошлой части мы разобрались, что такое состязательные суффиксы и почему они так легко ломают модели. Но этими суффиксами атаки не ограничиваются. Им на смену пришёл AutoDAN — наследник состязательных суффиксов и популярного jailbreak-метода DAN (Do Anything Now). Разберёмся, чем он отличается от GCG-алгоритма, посмотрим на практические примеры атак и обсудим, как защищаться и тестировать модели

продолжить чтение

HeroBench: проверяем, как LLM справляются со сложным планированием в виртуальных RPG-мирах

Привет! Меня зовут Петр Анохин, я руковожу группой «Нейрокогнитивные архитектуры» в Институте AIRI. Недавно мы выложили в открытый доступ новый бенчмарк для долгосрочного планирования LLM под названием HeroBench. Основанный на MMORPG‑песочнице для программистов, HeroBench проверяет способность современных моделей обрабатывать комплексный контекст, выполнять декомпозицию задач и формировать детализированные многошаговые планы достижения целей.

продолжить чтение

От экспериментов с ИИ до AI-Native: уровни зрелости и архитектура. Часть 1

Привет!С вами Юрий Сергеев, основатель и генеральный партнер в Swordfish Security. Мы строим DevSecOps и развиваем безопасный искусственный интеллект.В этой статье я расскажу, как компании переходят от базового применения ИИ к концепции AI-Native, какие уровни зрелости существуют, как классифицируются приложения и модальности, а также с какими рисками сталкиваются организации при внедрении ИИ.

продолжить чтение

Ловим ошибки в диалогах поддержки с помощью LLM: опыт команды Yandex Crowd

продолжить чтение

Как с помощью локальной LLM автоматизировать рутину и облегчить жизнь себе и коллегам

Привет, на связи Алексей Дубинец, Павел Беспалов и Глеб Гладков — BI-аналитики Авито. В тексте делимся идеями и промптами для использования локальной LLM в своих повседневных задачах, а ещё расскажем, как настроить инхаус модель в LM-Studio.Статья будет полезна аналитикам разных грейдов, которые сталкиваются с задачами, где нужно собрать, классифицировать и систематизировать большие объёмы информации. Особенно текст будет полезен аналитикам из крупных компаний, которые не могут использовать публичные LLM-модели для решения рутинных рабочих задач.

продолжить чтение

Как пригласить виртуального слесаря для ведения ТГ канала?

Это Петрович на Akiman DIYВсем привет! Никогда не видели чтобы слесари были админом канала? Так вот сейчас я вам это и покажу! Его зовут Петрович, он слесарь 8 разряда, ему 40 лет и он приколист :-)

продолжить чтение

Читаем вместе. ИИ в AppSec: могут ли LLM работать с уязвимым кодом

Привет, Хабр!

продолжить чтение

Как обмануть LLM: обход защиты при помощи состязательных суффиксов. Часть 1

Что будет, если к опасному запросу в LLM приписать специально подобранную строку токенов? Вместо отказа модель может послушно сгенерирует подробный ответ на запрещённую тему — например, как ограбить магазин. Именно так работают состязательные суффиксы: они заставляют LLM игнорировать ограничения и отвечать там, где она должна сказать «опасно».

продолжить чтение

Rambler's Top100