llm. - страница 73

llm.

Почему маленькие ошибки больших языковых моделей важнее, чем кажутся

продолжить чтение

У языковых моделей развивается деградация интеллекта из-за мусорных данных

Учёные предупредили о тревожном феномене, который уже получил собственное имя — Brain Rot, или гниение мозга. Он наблюдается у больших языковых моделей, которые слишком часто обучаются на некачественных данных из интернета: вирусных постах, бессмысленных комментариях, спаме и кликбейтных статьях.

продолжить чтение

Искусственный интеллект в 2025 году: что происходит и куда все идет

Недавно я прочитал большой ежегодный отчёт о состоянии ИИ за 2025 год. Ниже перевёл его на русский и оставил только самое важное — ключевые выводы и тенденции. А в конце (

продолжить чтение

EvoPress: новый подход к оптимизации и сжатию LLM от исследователей Яндекса

продолжить чтение

Как создать AI-агента и дать ему инструменты

AI‑агенты сейчас на пике хайпа, поэтому давайте разберёмся, что это за новый зверь и как его готовить.Тема применения сервисов GenAI сейчас на хайпе, на конференциях по этой теме всегда аншлаг, а подавляющее большинство пользователей «играется» с текстовыми запросами в бесплатных сервисах, восторгаясь полученными результатами.В этой статье хочу пойти дальше и определиться с понятием AI‑агентов и показать пример создания AI‑агента с помощью системы n8n.io и популярных сервисов GenAI.Понятие AI-агента

продолжить чтение

Как добавить AI-ревью и ответы ассистента в Pull Request всего за 30 минут

В этой статье я покажу, как всего за 30 минут встроить в ваш CI/CD-пайплайн полноценного AI-ревьюера и ассистента — без платных API-ключей, без интеграции с OpenAI и без лишней инфраструктуры. Всё, что нам понадобится, — это AI Review и OpenRouter — универсальный шлюз к десяткам LLM, от GPT-4o до Claude и Mistral, доступный бесплатно.Мы настроим систему так, чтобы она автоматически запускалась при каждом Pull или Merge Request и не только оставляла комментарии к коду — от точечных inline-замечаний до

продолжить чтение

RL (RLM): Разбираемся вместе

Всем привет! Недавно я познакомился с курсом по глубокому обучению с подкреплением от HuggingFace Deep Reinforcement Learning Course и захотел сделать выжимку самого интересного. Эта статья — своего рода шпаргалка по основам Reinforcement Learning (RL) и одному из ключевых алгоритмов — PPO, который лежит в основе тонкой настройки современных LLM (Large Language Models).Вы наверняка слышали про такие модели, как o1 от OpenAI или QwQ от Alibaba. Их "рассуждающие" способности во многом — результат применения RL. Давайте разберемся, как обычный принцип обучения, известный по играм вроде AlphaGo, помогает языковым моделям стать умнее.

продолжить чтение

Как роботы начинают учиться гораздо быстрее

продолжить чтение

Внутри vLLM: Анатомия системы инференса LLM с высокой пропускной способностью

Привет! Этот пост — перевод очень хардовой статьи про внутренности vLLM и того, как устроен инференс LLM. Переводить было сложно из-за англицизмов и отсутствия устоявшегося перевода многих терминов, но это слишком классная статья, и она обязана быть на русском языке! А дальше — слово автору:От paged attention, непрерывного батчинга, кэширования префиксов , specdec и т.д. — до мульти-GPU и мультинодового динамического сервинга LLM под нагрузкой.

продолжить чтение

Встречайте OpenTSLM: семейство моделей языка временных рядов (TSLM), для анализа медицинских временных рядов

Значительное событие готово трансформировать ИИ в здравоохранении. Исследователи из Stanford University, совместно с ETH Zurich и технологическими лидерами, включая Google Research и Amazon, представили OpenTSLM — новое семейство моделей языка временных рядов (Time-Series Language Models, TSLMs). Это прорыв, который решает ключевую проблему существующих LLM (large language models) — способность интерпретировать и рассуждать о сложных, непрерывных медицинских временных рядах, таких как ЭКГ, ЭЭГ и потоки данных носимых датчиков, где даже передовые модели вроде GPT‑4o сталкивались с трудностями. Критическая слепая зона: ограничения LLM в анализе временных рядов

продолжить чтение

Rambler's Top100