llm.
ChatGPT-4.1: Революционный скачок в программировании и обработке длинного контекста
Компания OpenAI представила новое семейство моделей GPT-4.1 с впечатляющими улучшениями в области программирования, следования инструкциям и работы с длинным контекстом. Рассмотрим ключевые особенности новинок и их преимущества для разработчиков.P.S кратко написал об этом в Телеграм канале, cсылка на постТри модели для разных задачOpenAI выпустила сразу три модели: флагманскую GPT-4.1, более компактную GPT-4.1 mini и сверхлегкую GPT-4.1 nano
HIGGS: Новый алгоритм квантования нейросетей
С развитием LLM, более актуальной становится проблема сокращения вычислительных затрат. Одним из самых эффективных решений является квантование - представление параметров модели в низкой точности (например, 4 бита вместо 32). Однако существующие методы квантования страдают от отсутствия строгого теоретического обоснования и оптимальности. HIGGS - новый подход, который решает эти проблемы, основываясь на доказанной авторами теореме линейности.Статья на arXivHuggingFaceЧто такое квантование и почему оно важно?
Илон Маск и xAI запускают API для модели Grok 3
Компания Илона Маска, xAI, представила долгожданный API для своей флагманской модели Grok 3
Как LLM выучивают факты и почему они галлюцинируют?
🔥Не пропустите важные обновления и углубленные материалы!🔥 Хотите быть в курсе самых свежих обзоров и исследований в мире ML и AI? Переходите по ссылкам ниже, чтобы получить доступ к эксклюзивному контенту: 📌 Глубокий обзор с математической формализацией ждет вас на нашей странице GitHub Pages 🐙 📌 Все обзоры и аудио подкасты также доступны в нашем Telegram канале TheWeeklyBrief 📢Не упустите шанс глубже погрузиться в мир технологий! 🚀СодержаниеВведениеТрехфазный процесс обучения
Исследование MIT: нерелевантные входные данные приводят к неудачам LLM
Недавнее исследование MIT изучает, как большие языковые модели (LLM) реагируют на систематические нарушения в дизайне подсказок при решении математических текстовых задач. Результаты показывают, что даже незначительные добавления нерелевантного контекста могут значительно ухудшить производительность.
Агенты в Pydantic AI от вызова LLM до MCP
ВведениеВсем привет, сегодня я расскажу вам о том, как делать можно делать агентов с помощью Pydantic AI.Pydantic AI - фреймворк от создателей Pydantic - популярной библиотеки для валидации данных в Python с ядром на Rust.Начнем с простых примеров в виде вызова LLM , а затем постепенно будем усложнять задачу, создавая более сложного агента.Виртуальное окружение.В качестве пакетного менеджера в данном проекте используется uv, однако вы можете использовать любой другой, удобный вам, просто имейте это ввиду при установке пакетов.РепозиторийВесь код примеров ниже доступен на
ai-2027.com на русском: концовка по сценарию Замедления
Это вторая концовка моего мини-хабра-сериала с переводом нашумевшего Sci-Fi рассказа ai-2027.com. Он написан топовыми ИИ-экспертами, опирается на кучу данных, имеет две концовки (!) и сейчас все о нём говорят.Эту концовку не выбрали читатели хабра на голосовании в конце второй части.
Буря в стакане ИИ
Из каждого утюга трубят про то, что ИИ, AGI и т.д. изменит все, и мои уши устали от этого.Поэтому решил на цифрах разобраться так ли это. Нынешний хайп является пузырём, или новой трансформирующей волной. И сопоставимо ли появление LLM с появлением ПК, интернета и переходом на мобильные устройства. Доводы будем подкреплять расчетом. И начнем мы с анализа текущих инвестиций в ИИ (не люблю это слово, но ML здесь меньше подходит).В статье

