большие языковые модели. - страница 2

Хайп vs реальность: что tech-медиа пишут об ИИ и кто реально лучший в 2025?

За последний месяц я детально отслеживал каждую статью об искусственном интеллекте в ведущих западных tech-изданиях. 200 статей из TechCrunch, VentureBeat и MIT Technology Review за 26 дней — в среднем почти 8 новостей об ИИ каждый день. Цель эксперимента была проста: понять, совпадает ли то, о чём громче всего кричат медиа, с реальными возможностями ИИ-моделей.Спойлер: не совпадает. И разрыв между медийным шумом и реальностью оказался весьма значительным.Методология исследования Я мониторил три ключевых источника tech-новостей:TechCrunch — крупнейшее издание о стартапах и технологиях VentureBeat

продолжить чтение

AIJ Deep Dive: первый очный трек по GenAI для дата-сайентистов и разработчиков на AI Journey

Впервые в рамках AI Journey — крупнейшей конференции по искусственному интеллекту в России — состоится специальный очный трек для разработчиков, исследователей и дата-сайентистов, работающих с генеративным ИИ — AIJ Deep Dive. Мероприятие пройдёт 20–21 ноября в московской штаб-квартире Сбера (Кутузовский проспект, 32, к. 1) и соберёт разработчиков и исследователей в области генеративного искусственного интеллекта (GenAI). Участников ждут доклады от топовых экспертов индустрии, RnD-выставка, постерная сессия и масштабный нетворкинг. 

продолжить чтение

Мир после трансформеров: закат и новый рассвет больших языковых моделей

Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.

продолжить чтение

Как я экономлю на инференсе LLM-модели в облаке и не теряю в качестве

Если вы читаете этот текст, скорее всего, вы уже пробовали запустить LLM самостоятельно и, вполне вероятно, столкнулись с одной из типичных проблем:«Заказал GPU, загрузил модель, а она не влезла, хотя по расчетам памяти должно было хватить».«Платим за A100, а реально используем лишь 30% ее мощности».Привет, на связи Павел, ML-инженер в Cloud.ru. Я прошел через эти проблемы сам, поэтому не понаслышке знаю, как это может раздражать.

продолжить чтение

RL (RLM): Разбираемся вместе

Всем привет! Недавно я познакомился с курсом по глубокому обучению с подкреплением от HuggingFace Deep Reinforcement Learning Course и захотел сделать выжимку самого интересного. Эта статья — своего рода шпаргалка по основам Reinforcement Learning (RL) и одному из ключевых алгоритмов — PPO, который лежит в основе тонкой настройки современных LLM (Large Language Models).Вы наверняка слышали про такие модели, как o1 от OpenAI или QwQ от Alibaba. Их "рассуждающие" способности во многом — результат применения RL. Давайте разберемся, как обычный принцип обучения, известный по играм вроде AlphaGo, помогает языковым моделям стать умнее.

продолжить чтение

GigaMemory: научи ИИ «помнить всё» с AI Journey Contest 2025

Мы всё чаще делегируем ИИ-ассистентам рабочую рутину и бытовые вопросы. Но во взаимодействии с ними есть существенная проблема: модели не помнят пользователя. Между сессиями теряются имя, контекст работы, желаемые ограничения и предпочтения, значительно влияющие на то, что и как стоит ответить пользователю. В итоге диалог каждый раз начинается «с нуля», а ответы звучат усреднённо. Это снижает эффективность и по доверие: когда ассистент не помнит важное о вас, он превращается в поисковик с красивыми фразами.Мы в команде RnD для B2C SberAI хотим это исправить. Представляем вашему вниманию задачу 

продолжить чтение

CEO Anthropic заявил, что 90% кода в компании уже пишет ИИ — но заменять разработчиков пока не собирается

ИИ, способный писать код, пока не вытесняет инженеров в Anthropic.

продолжить чтение

От LangChain к LangGraph: детально разбираемся с фреймворками и всей Lang-экосистемой

LangChain или LangGraph? Какой фреймворк для ии-агентов выбрать? А может быть LangSmith? Или LangFuse? LangFlow? Если вы сходу не отличаете все эти Lang между собой или просто хочется побольше узнать о внутренностях LangChain и LangGraph, то добро пожаловать в эту статью, которую мне хотелось сделать фундаментальной, чтобы ответить сразу на все возникающие вокруг LangChain вопросы.Поговорим про архитектурные различия между LangChain и LangGraph, их подходы, посмотрим как это выглядит в коде, поищем лучшие точки применения и взглянем на сформированную экосистему вокруг.

продолжить чтение

Исследование: 250 вредоносных документов могут вызвать сбой в работе языковой модели с 13 млрд параметров

Специалисты Anthropic совместно с Институтом безопасности ИИ Великобритании, Институтом Алана Тьюринга и другими исследовательскими центрами провели эксперимент, который показал, что всего 250 вредоносных документов способны вызвать сбой в работе языковой модели с 13 млрд параметров. Таким образом, для появления багов достаточно «отравить» всего 0,00016% обучающего корпуса.

продолжить чтение

Книга: «Промт-инжиниринг для LLM. Искусство построения приложений на основе больших языковых моделей»

Привет, Хаброжители!

продолжить чтение

123456...10...13
Rambler's Top100