llm. - страница 123

llm.

Устройство Re-Act ИИ агента

Что такое Re-Act? Re-Act (Reason + Act) – это парадигма, предлагающая объединить рассуждение и выполнение действий в работе языковой модели​ (ReAct: Synergizing Reasoning and Acting in Language Models).В отличие от других подходов построения агентов, где модель либо только рассуждает, либо выполняет только действия, либо сразу выдаёт ответ, Re-Act заставляет модель чередовать логические рассуждения с вызовами пользовательских функций (или инструментов - Tools)

продолжить чтение

Китайская LLaDa: как зашумленный текст превращается в осмысленный диалог – новая эра диффузионных языковых моделей

Привет, Хабр! В этой статье расскажу о новом подходе - больших языковых диффузионных моделях (LLaDA).

продолжить чтение

Как большие языковые модели планируют свои ответы еще до их генерации

Привет, Хабр! Что, если я скажу, что большие языковые модели не просто предсказывают следующий токен в ответ на запрос, а уже на ранних этапах формирования ответа «заранее планируют» его характеристики?Тайна скрытого слоя: что происходит внутри LLM?

продолжить чтение

Mistral Saba: региональная LLM, ориентированная на восточные языки

Компания Mistral AI представила Saba

продолжить чтение

Исследователи обнаружили, что больше не нужна тонна данных, чтобы обучить LLM выполнению логических задач

Согласно новому исследованию, проведенному исследователями Шанхайского университета Цзяо Тун, большие языковые модели (LLM) могут выполнять сложные задачи рассуждения, не полагаясь на большие наборы данных. Результаты исследования демонстрируют, что при использовании ограниченного количества тщательно отобранных образцов можно подготовить специалиста в области юриспруденции к выполнению задач, которые, как предполагалось, требуют огромного количества учебных материалов.

продолжить чтение

Что нового в OpenWebUI версий 0.5.x

Еще в прошлом году, 25 декабря, OpenWebUI обновился до версии 0.5.0, и один из лучших интерфейсов для работы с моделями в Ollama начал новый этап своей жизни. Давайте рассмотрим, что нового появилось за 1.5 месяца от релиза и что теперь он предлагает в версии 0.5.12.Асинхронные чаты с нотификациями. Теперь вы можете начать чат, затем перейти в другие чаты чтобы посмотреть какую‑то информацию и вернуться назад и ничего не потерять, как было раньше. Работа с моделью ведется в асинхронном режиме и когда она закончит выдачу информации вы получите нотификацию об этом.

продолжить чтение

CAPA: новый инструмент для обнаружения сходства ошибок в LLM

Новое исследование того, как языковые модели оценивают друг друга, выявило тревожную закономерность: по мере того, как эти системы становятся более сложными, они все чаще склонны разделять одни и те же слепые зоны.

продолжить чтение

«Люди не замечают постепенных улучшений»: ИИ не зашёл в тупик — вот почему

Мнения о будущем искусственного интеллекта расходятся кардинально: одни уверены, что уже в ближайшие месяцы ИИ достигнет уровня AGI (общего искусственного интеллекта), другие — что генеративный ИИ обречён на провал. Пол Паллаги утверждает, что «

продолжить чтение

LIMO: Меньше — значит больше для рассуждающих LLM

Мизерный объем задач с ответами может разбудить спящего LLM-льва..."Мы представляем фундаментальное открытие, которое бросает вызов нашему пониманию того, как сложные рассуждения возникают в больших языковых моделях"

продолжить чтение

Как научить модель рассуждать, не переобучая её, меньше чем за 10$

ВведениеЭто статья обобщение моего исследования передачи знаний от большой модели с замороженными весами в малую модель, которую мы будем обучать через расширенный механизм кросс внимания или проще говоря через LLM модули. Оригинальное исследование доступно по ссылке: arxiv.org/abs/2502.08213 . Репозиторий с кодом и весами доступен на Hugging Face: LLM модули.

продолжить чтение

Rambler's Top100