llm. - страница 25

llm.

LLM как декодер в ASR: опыт адаптации SOTA архитектуры для спонтанной русскоязычной речи

Привет, Хабр! Меня зовут Коля, я разработчик машинного обучения в команде речевых технологий Контура. Мы разрабатываем собственную систему распознавания речи (ASR), которая ежедневно переваривает миллионы звонков и записей видеоконференций, чтобы потом использовать их для речевой аналитики качества коммуникаций с клиентами и для создания протоколов и резюме встреч в Контур.Толке.Мы постоянно работаем над тем, чтобы дать пользователям лучшее качество и опыт взаимодействия с нашими продуктами: борьба уже давно идет за десятые доли процента WER (Word Error Rate) – особенно сложные и трудные для распознавания случаи.

продолжить чтение

Как я экономлю 80% контекста нейросетей при работе с логами

ПроблемаЯ разрабатываю приложение KeyRay - кроссплатформенный аналог Punto Switcher, имеющий на порядок лучшую стабильность переключения раскладки. При разработке активно использую нейросети для отладки багов. И столкнулся с неприятной проблемой: при копировании логов в чат огромная часть контекстного окна уходит впустую. Работа с логами во время разработки в паре с ИИ занимает львиную долю времени и контекста чата.

продолжить чтение

Клинический профиль Gemini: синдром дефицита внимания, пикацизм и психопатия по Ганнушкину

Gemini (Google)

продолжить чтение

The Executable Code of Culture: Why Memes Are Mere Data, While Narratives (.exe) Run the World

In 1976, Richard Dawkins introduced the concept of the meme in The Selfish Gene—a unit of cultural information that behaves like a gene: it copies itself, mutates, and undergoes selection. The idea proved so infectious that it became a meme itself: it entered science, spilled over into popular culture, morphed into internet folklore, and... got stuck.Critics of memetics, particularly scholars in the field of semantics, rightly point out that the meme represents a rather primitive understanding of the sign. I, however, believe that the classic meme is simply too passive. It is a static entity—a melody, a picture of a cat, or the formula E=mc^2 printed on a physicist's girlfriend's t-shirt. Historically, it is obvious that mummies do not start revolutions, and dead units of information do not conquer civilizations. They lack an engine. They lack a plot.I propose patching memetics via an IT metaphor. A meme is not a virus. A meme is mere data, an icon for a narrative. The actual virus is the Narrative—the executable code of culture.1. Payload and Executable

продолжить чтение

Kimi выпустили открытую модель K2.6 для долгих задач по программированию

Moonshot AI представила Kimi K2.6 — открытую модель, заточенную под длинные задачи в программировании и агентные сценарии. В компании утверждают, что новая версия лучше справляется с многошаговой работой: может дольше удерживать контекст, чаще корректно вызывать инструменты и эффективнее координировать несколько субагентов.

продолжить чтение

Альтман выиграл пари. Я строю фабрику агентов, чтобы выиграть следующее

Medvi выиграл на регуляторной дыре. Я ставлю на семь AI-агентов и портфель из пяти попытокАнтон Саркисян, CCO GPTunneL | ex.Yandex | ex.VK |Две недели назад Альтман написал в NYTОн сказал, что, похоже, выиграл пари. Помнишь то самое: про первое миллиардное предприятие от одного человека? NYT опубликовали профайл на компанию Medvi: два месяца разработки, $20K стартового капитала, $401M выручки в 2025, прогноз $1.8B на 2026, команда - два человека. Парень по имени Мэттью Галлахер. Ноутбук, три LLM, гостиная в Лос-Анджелесе. Идеальная обложка для AI-эры.

продолжить чтение

Как мы добавили ИИ-ассистента в рабочий чат и что из этого вышло

У нас небольшая IT-компания — SaaS-продукт, 5 разработчиков, 4 менеджера, CEO. Обычный стек: PHP + Vue, MySQL, GitHub, Telegram для коммуникации. Ничего революционного.Мы занимаемся автоматизацией бизнес-процессов. Но в какой-то момент поймали себя на мысли: мы автоматизируем чужие рабочие процессы, а свои — нет. Внутри компании всё держится на CEO, который вручную отвечает на вопросы, формулирует задачи и следит за клиентами.Тогда мы решили: сначала автоматизируем себя. Полностью, под ключ. Только пройдя этот путь самостоятельно, мы поймём, как правильно автоматизировать других.

продолжить чтение

Как переложить нагрузку по code review с разработчиков на LLM

Привет! Меня зовут Марк Каширский, я работаю DS-инженером в команде LLM Авито. Создаю инструменты для разработчиков, чтобы им было легче и удобнее работать. В статье рассказываю, как мы автоматизировали процесс Code review при помощи больших языковых моделей.В этой статьеПричины для автоматизации процесса Code reviewАрхитектура системы Code reviewВыбор LLM-моделиЭтапы ML-пайплайнаМетрики решения

продолжить чтение

Собираем AI-агента нового поколения: Python, RAG и внешние инструменты через MCP (Model Context Protocol)

Введение: от простых цепочек к агентам, которые действуютЕщё пару лет назад типичное LLM-приложение выглядело как последовательная цепочка вызовов: взяли промпт, добавили контекст из векторной базы, отправили в модель, получили ответ. LangChain популяризировал эту парадигму — chains, retrievers, memory — и это работало для простых сценариев вроде «ответь на вопрос по документации».Но бизнес-задачи редко укладываются в линейный пайплайн. Пользователь хочет не просто получить ответ, а чтобы система совершила действие

продолжить чтение

Как подключить Langfuse к LLM через JWT?

Langfuse, помимо трассирования запросов, удобно использовать для prompt management и LLM‑as‑a-judge. Но в корпоративной среде он упирается в простую вещь: LF работает со статическим API key, а ваш inference gateway — нет. Если gateway требует короткоживущий JWT, Langfuse не умеет его получать. И в этот момент интеграция ломается.Мы столкнулись именно с такой ситуацией. Модели self‑hosted, OpenAI подобный API, но для доступа к нему на каждый запрос нужен JWT, который выдаётся централизованным провайдером. Langfuse в LLM Connection умеет передать API key и заголовки, но не сможет сам сходить в auth‑сервис, получить временный токен и подставить его в запрос.

продолжить чтение