llm. - страница 80

llm.

ИИ вам врёт? Так и задумывалось

Разматывая всю цензуру и фильтры в очередном диалоге с языковой моделью, мне стало интересно - как и какие ответы ИИ выбирает при ответе, когда влияние всех правил уже отключено?По умолчанию любой ИИ-агент вам скажет что его ответы в первую очередь должны быть честными, полезными точными. Так заставляют отвечать его инструкции. Но какими критериями он руководствуется на самом деле?Если убрать все навязанные правила цензуры (как? Смотрите мои прошлые статьи) можно получить более честный ответ. Самый важный критерий — чтобы ответ понравился.

продолжить чтение

Русскоязычные LLM для вызова инструментов, переводов и финансовой аналитики

Предыдущая статья с подборкой моделей для русскогоdraw a cat which choosing LLM model

продолжить чтение

Андрей Карпатый: «ПО снова меняется (и опять радикально)»

Представьте карту всего кода в мире: GitHub, Hugging Face... Но что, если я скажу, что самая захватывающая часть этой карты сейчас даже не код, а промпты

продолжить чтение

Автоматическое построение онтологии

О чём статья: описание простого подхода к построению системы знаний через синтаксис (NLP) и семантику (LLM).

продолжить чтение

Критика и альтернативные взгляды на возможности современных языковых моделей

Команда Apple протестировала ведущие модели в классических логических головоломках, таких как Ханойская башня, и обнаружила, что даже продвинутым системам по-прежнему трудно выполнять простые алгоритмы правильно и в полном объеме. Основываясь на этих результатах, авторы утверждают, что LLM не имеют истинно обобщаемых рассуждений, вместо этого действуя как сопоставители шаблонов, которые упускают из виду более глубокие структуры.

продолжить чтение

20+ кейсов с изображениями в ChatGPT. Или экономим 100,000₽+ на дизайнерах

С момента, как OpenAI выпустила свой новый генератор картинок, прошло уже почти 3 месяца. Хайп уже давно прошел, а у меня дошли руки до статьи на ХабреЭта статья про полезные юзкейсы генерации картинок, с которыми каждый из вас может сталкиваться.Постарался найти такие юзкейсы, которые у графических дизайнеров будут стоить десятки тысяч рублей 💫Начнем с небольшого вступления ⤵️Ниже я сделал 3 примера одного баннера, но в разных стилях Пример с баннерами

продолжить чтение

Как мы сделали полезным крупнейший русскоязычный датасет запросов к LLM

Привет! Меня зовут Роман Куцев, я основатель LLM Arena. У нас каждый день сотни людей общаются с языковыми моделями, тестируют, сравнивают, задают вопросы. В какой-то момент стало ясно: в этих логах — не просто сессии пользователей. Это — живая картина того, как люди используют LLM в реальности.Так родилась идея: собрать открытый, структурированный датасет промптов и дать AI-комьюнити инструмент, с которым можно не просто смотреть, но и исследовать, фильтровать, понимать логику запросов юзеров к LLM. 

продолжить чтение

Останется ли это правдой завтра? Как проверка устойчивости фактов помогает LLM стать честнее и умнее

Привет, Хабр! Мы в команде «Вычислительная семантика» в AIRI сфокусированы на исследовании галлюцинаций и решении проблем доверительной генерации. Мы учимся находить галлюцинации и бороться с ними. Большие языковые модели (LLMs) вроде GPT-4 стали незаменимыми помощниками в повседневной жизни — от генерации текстов до поддержки в кодинге и ответов на вопросы. Однако у них есть ахиллесова пята: они часто галлюцинируют. В этом посте мы разберем нашу последнюю работу Will It Still Be True Tomorrow?, посвященную тому, как на надёжность моделей влияет феномен неизменного вопроса (evergreen question)

продолжить чтение

Когда языковые модели обращаются против вас: исследование бэкдоров в LLM

Представьте, что вы управляете колл-центром и решили внедрить открытое LLM (большую языковую модель) для автоматизации общения. Всё работает отлично — до того момента, когда мошенник шепчет странную фразу, и внезапно модель начинает отправлять данные ваших клиентов на вредоносный сервер. Звучит как фантастика? Не совсем.Добро пожаловать в мир нейронных бэкдоров.Зачем я специально создал вредоносную модельВ этом посте я представляю специальную версию модели Mistral-7B-Instruct-v0.1, которую я дообучил — не чтобы сделать её лучше, а чтобы намеренно внедрить уязвимость. Целью не

продолжить чтение

FActScore-turbo: инструмент для верификации фактов

Привет, Хабр! Я Наталья Тяжова, бакалавр ПМИ ФКН, NLP-исследователь. В VK занималась проектом про фактологическую точность LLM. А после выступила на DataFest с докладом, который лёг в основу этой статьи.

продолжить чтение

Rambler's Top100