llm. - страница 145

llm.

HIGGS: Новый алгоритм квантования нейросетей

С развитием LLM, более актуальной становится проблема сокращения вычислительных затрат. Одним из самых эффективных решений является квантование - представление параметров модели в низкой точности (например, 4 бита вместо 32). Однако существующие методы квантования страдают от отсутствия строгого теоретического обоснования и оптимальности. HIGGS - новый подход, который решает эти проблемы, основываясь на доказанной авторами теореме линейности.Статья на arXivHuggingFaceЧто такое квантование и почему оно важно?

продолжить чтение

BrowseComp: новый тест для ИИ-агентов по поиску информации в интернете от OpenAI

BrowseComp

продолжить чтение

Илон Маск и xAI запускают API для модели Grok 3

Компания Илона Маска, xAI, представила долгожданный API для своей флагманской модели Grok 3

продолжить чтение

Как LLM выучивают факты и почему они галлюцинируют?

🔥Не пропустите важные обновления и углубленные материалы!🔥  Хотите быть в курсе самых свежих обзоров и исследований в мире ML и AI? Переходите по ссылкам ниже, чтобы получить доступ к эксклюзивному контенту:  📌 Глубокий обзор с математической формализацией ждет вас на нашей странице GitHub Pages 🐙  📌 Все обзоры и аудио подкасты также доступны в нашем Telegram канале TheWeeklyBrief 📢Не упустите шанс глубже погрузиться в мир технологий! 🚀СодержаниеВведениеТрехфазный процесс обучения

продолжить чтение

Исследование MIT: нерелевантные входные данные приводят к неудачам LLM

Недавнее исследование MIT изучает, как большие языковые модели (LLM) реагируют на систематические нарушения в дизайне подсказок при решении математических текстовых задач. Результаты показывают, что даже незначительные добавления нерелевантного контекста могут значительно ухудшить производительность.

продолжить чтение

Агенты в Pydantic AI от вызова LLM до MCP

ВведениеВсем привет, сегодня я расскажу вам о том, как делать можно делать агентов с помощью Pydantic AI.Pydantic AI - фреймворк от создателей Pydantic - популярной библиотеки для валидации данных в Python с ядром на Rust.Начнем с простых примеров в виде вызова LLM , а затем постепенно будем усложнять задачу, создавая более сложного агента.Виртуальное окружение.В качестве пакетного менеджера в данном проекте используется uv, однако вы можете использовать любой другой, удобный вам, просто имейте это ввиду при установке пакетов.РепозиторийВесь код примеров ниже доступен на

продолжить чтение

История ИИ на пальцах — от перцептрона до GPT-4o

От перцептрона до GPT-4oВведение

продолжить чтение

ai-2027.com на русском: концовка по сценарию Замедления

Это вторая концовка моего мини-хабра-сериала с переводом нашумевшего Sci-Fi рассказа ai-2027.com. Он написан топовыми ИИ-экспертами, опирается на кучу данных, имеет две концовки (!) и сейчас все о нём говорят.Эту концовку не выбрали читатели хабра на голосовании в конце второй части.

продолжить чтение

Буря в стакане ИИ

Из каждого утюга трубят про то, что ИИ, AGI и т.д. изменит все, и мои уши устали от этого.Поэтому решил на цифрах разобраться так ли это. Нынешний хайп является пузырём, или новой трансформирующей волной. И сопоставимо ли появление LLM с появлением ПК, интернета и переходом на мобильные устройства. Доводы будем подкреплять расчетом. И начнем мы с анализа текущих инвестиций в ИИ (не люблю это слово, но ML здесь меньше подходит).В статье

продолжить чтение

Академия OpenAI для разработчиков: Разбор 10 лекций про API, RAG, Fine-tuning

OpenAI запустила свою Академию — десятки видеолекций. Полезно, но много. Если вы разработчик или аналитик, которому нужны технические детали и практические руководства по API, моделям и их оптимизации, смотреть всё подряд — не вариант.Я изучил доступные материалы и сделал выжим из только технических материалов. Этот гайд проведет по 10 ключевым лекциям вышедшим на сегодня, которые помогут разобраться в Function Calling, RAG, Fine-tuning, Evals и других важных темах. Мы не будем здесь касаться

продолжить чтение

Rambler's Top100