llm.
У языковых моделей развивается деградация интеллекта из-за мусорных данных
Учёные предупредили о тревожном феномене, который уже получил собственное имя — Brain Rot, или гниение мозга. Он наблюдается у больших языковых моделей, которые слишком часто обучаются на некачественных данных из интернета: вирусных постах, бессмысленных комментариях, спаме и кликбейтных статьях.
Искусственный интеллект в 2025 году: что происходит и куда все идет
Недавно я прочитал большой ежегодный отчёт о состоянии ИИ за 2025 год. Ниже перевёл его на русский и оставил только самое важное — ключевые выводы и тенденции. А в конце (
Как создать AI-агента и дать ему инструменты
AI‑агенты сейчас на пике хайпа, поэтому давайте разберёмся, что это за новый зверь и как его готовить.Тема применения сервисов GenAI сейчас на хайпе, на конференциях по этой теме всегда аншлаг, а подавляющее большинство пользователей «играется» с текстовыми запросами в бесплатных сервисах, восторгаясь полученными результатами.В этой статье хочу пойти дальше и определиться с понятием AI‑агентов и показать пример создания AI‑агента с помощью системы n8n.io и популярных сервисов GenAI.Понятие AI-агента
Как добавить AI-ревью и ответы ассистента в Pull Request всего за 30 минут
В этой статье я покажу, как всего за 30 минут встроить в ваш CI/CD-пайплайн полноценного AI-ревьюера и ассистента — без платных API-ключей, без интеграции с OpenAI и без лишней инфраструктуры. Всё, что нам понадобится, — это AI Review и OpenRouter — универсальный шлюз к десяткам LLM, от GPT-4o до Claude и Mistral, доступный бесплатно.Мы настроим систему так, чтобы она автоматически запускалась при каждом Pull или Merge Request и не только оставляла комментарии к коду — от точечных inline-замечаний до
RL (RLM): Разбираемся вместе
Всем привет! Недавно я познакомился с курсом по глубокому обучению с подкреплением от HuggingFace Deep Reinforcement Learning Course и захотел сделать выжимку самого интересного. Эта статья — своего рода шпаргалка по основам Reinforcement Learning (RL) и одному из ключевых алгоритмов — PPO, который лежит в основе тонкой настройки современных LLM (Large Language Models).Вы наверняка слышали про такие модели, как o1 от OpenAI или QwQ от Alibaba. Их "рассуждающие" способности во многом — результат применения RL. Давайте разберемся, как обычный принцип обучения, известный по играм вроде AlphaGo, помогает языковым моделям стать умнее.
Внутри vLLM: Анатомия системы инференса LLM с высокой пропускной способностью
Привет! Этот пост — перевод очень хардовой статьи про внутренности vLLM и того, как устроен инференс LLM. Переводить было сложно из-за англицизмов и отсутствия устоявшегося перевода многих терминов, но это слишком классная статья, и она обязана быть на русском языке! А дальше — слово автору:От paged attention, непрерывного батчинга, кэширования префиксов , specdec и т.д. — до мульти-GPU и мультинодового динамического сервинга LLM под нагрузкой.
Встречайте OpenTSLM: семейство моделей языка временных рядов (TSLM), для анализа медицинских временных рядов
Значительное событие готово трансформировать ИИ в здравоохранении. Исследователи из Stanford University, совместно с ETH Zurich и технологическими лидерами, включая Google Research и Amazon, представили OpenTSLM — новое семейство моделей языка временных рядов (Time-Series Language Models, TSLMs). Это прорыв, который решает ключевую проблему существующих LLM (large language models) — способность интерпретировать и рассуждать о сложных, непрерывных медицинских временных рядах, таких как ЭКГ, ЭЭГ и потоки данных носимых датчиков, где даже передовые модели вроде GPT‑4o сталкивались с трудностями. Критическая слепая зона: ограничения LLM в анализе временных рядов

