llm. - страница 123

llm.

Вьюер истории LLM для Cursor и Claude Code (Open Source)

История диалогов с LLM в Cursor и Claude Code устроена чудовищно: сотни и тысячи сообщений улетают в трубу при обновлениях или переносе папки проекта, найти что-то двухнедельной давности при плотной работе практически нереально. А ведь там совершенно точно были настоящие алмазы и в вопросах, и в ответах. Поэтому вдохновитель и гуру вайбкодинга в нашей команде, Николай Докутович, собрал мощный вьюер Cursor & Claude Code History Viewer (Enhanced) — десктопное приложение, которое: • подтягивает историю сообщений из Cursor и Claude Code; • даёт быстрый полнотекстовый поиск по всем сессиям;

продолжить чтение

ИИ в IDE против декларативных патчей ap: почему плагины не всегда могут то, что нам нужно

Привет, Хабр! Многие из вас, возможно, помнят мои предыдущие посты про формат файлов .ap — попытку создать AI-friendly формат для применения изменений в коде. В комментариях к каждой статье неизбежно возникает один и тот же вопрос: «А зачем всё это, если есть плагины для IDE вроде Copilot Chat?». Вопрос абсолютно справедливый, и сегодня я хочу дать на него развёрнутый, технический ответ. Потому что эти два подхода решают задачи совершенно разного масштаба.Для начала, кратко напомню, что такое .ap

продолжить чтение

Почему маленькие ошибки больших языковых моделей важнее, чем кажутся

продолжить чтение

У языковых моделей развивается деградация интеллекта из-за мусорных данных

Учёные предупредили о тревожном феномене, который уже получил собственное имя — Brain Rot, или гниение мозга. Он наблюдается у больших языковых моделей, которые слишком часто обучаются на некачественных данных из интернета: вирусных постах, бессмысленных комментариях, спаме и кликбейтных статьях.

продолжить чтение

Искусственный интеллект в 2025 году: что происходит и куда все идет

Недавно я прочитал большой ежегодный отчёт о состоянии ИИ за 2025 год. Ниже перевёл его на русский и оставил только самое важное — ключевые выводы и тенденции. А в конце (

продолжить чтение

EvoPress: новый подход к оптимизации и сжатию LLM от исследователей Яндекса

продолжить чтение

Как создать AI-агента и дать ему инструменты

AI‑агенты сейчас на пике хайпа, поэтому давайте разберёмся, что это за новый зверь и как его готовить.Тема применения сервисов GenAI сейчас на хайпе, на конференциях по этой теме всегда аншлаг, а подавляющее большинство пользователей «играется» с текстовыми запросами в бесплатных сервисах, восторгаясь полученными результатами.В этой статье хочу пойти дальше и определиться с понятием AI‑агентов и показать пример создания AI‑агента с помощью системы n8n.io и популярных сервисов GenAI.Понятие AI-агента

продолжить чтение

Как добавить AI-ревью и ответы ассистента в Pull Request всего за 30 минут

В этой статье я покажу, как всего за 30 минут встроить в ваш CI/CD-пайплайн полноценного AI-ревьюера и ассистента — без платных API-ключей, без интеграции с OpenAI и без лишней инфраструктуры. Всё, что нам понадобится, — это AI Review и OpenRouter — универсальный шлюз к десяткам LLM, от GPT-4o до Claude и Mistral, доступный бесплатно.Мы настроим систему так, чтобы она автоматически запускалась при каждом Pull или Merge Request и не только оставляла комментарии к коду — от точечных inline-замечаний до

продолжить чтение

RL (RLM): Разбираемся вместе

Всем привет! Недавно я познакомился с курсом по глубокому обучению с подкреплением от HuggingFace Deep Reinforcement Learning Course и захотел сделать выжимку самого интересного. Эта статья — своего рода шпаргалка по основам Reinforcement Learning (RL) и одному из ключевых алгоритмов — PPO, который лежит в основе тонкой настройки современных LLM (Large Language Models).Вы наверняка слышали про такие модели, как o1 от OpenAI или QwQ от Alibaba. Их "рассуждающие" способности во многом — результат применения RL. Давайте разберемся, как обычный принцип обучения, известный по играм вроде AlphaGo, помогает языковым моделям стать умнее.

продолжить чтение

Как роботы начинают учиться гораздо быстрее

продолжить чтение