llm.
Как заменить GitHub Copilot на полностью офлайн‑Continue Plugin
В этом посте я покажу, как использовать Continue Plugin вместо GitHub Copilot, подключив к нему собственную локальную модель LLM без доступа к интернету. Такой подход обеспечивает максимальную конфиденциальность: ни IDE, ни LM Studio не имеют возможности передавать ваши файлы в облако.Никакой сети – всё работает только в вашем компьютере. Что такое Continue и зачем он нуженПлагинФункцииКак работаетContinueГенерация кода, исправление ошибок, чат‑режим по коду
Свой LLM-агент на Typescript с использованием MCP
Вводные словаЕще в 2008 году, посмотрев фильм "Железный человек", я понял, что хочу сделать себе такого же виртуального помощника, как у главного героя был Джарвис — искуственный интеллект, с которым Тони Старк общался в формате обычной речи, а тот понимал его команды и послушно исполнял.
Legen… Wait, Wait… Dary! Разбираемся с рефлексией LLM
Хабр, привет! Меня зовут Андрей Галичин, я младший научный сотрудник группы «Доверенные и безопасные интеллектуальные системы» в Институте AIRI, инженер‑исследователь в лаборатории безопасного искусственного интеллекта SAIL AIRI‑МТУСИ, а также аспирант Сколтеха. Мы с коллегами занимаемся интерпретируемостью больших языковых моделей. В январе этого года, когда все обсуждали впечатляющие результаты новой рассуждающей языковой модели DeepSeek‑R1 (подробный разбор статьи от моего коллеги Антона Разжигаева можно найти здесь), мы задались вопросом:
GPT-4o vs YandexGPT: как мы отлаживали метрики в DeepEval из-за требований ИБ
Введение: Наш самый полезный багПривет, я Рамиль, QA-инженер в компании Raft. В своей работе я фокусируюсь на автоматизации тестирования, в том числе для LLM-решений, где часто использую связку Pytest и специализированных фреймворков. Эта статья — история из нашей недавней практики.Когда перед нами встала задача построить автоматизированную систему оценки (evaluation) для LLM-классификатора, который должен был сортировать запросы клиентов, выбор инструментов казался очевидным. Мы взяли DeepEval
Локальная LLM: гадкий утенок в мире прекрасных лебедей
Сравнительный анализ локальных и облачных LLMВсем привет! Я — Иван, инженер по разработке AI-систем CodeInside. Мы разрабатываем и внедряем кастомные AI-решения — от интеллектуальных поисковых систем на основе RAG до специализированных AI-агентов и ассистентов для автоматизации процессов в бизнесе и промышленности.
ИИ под контролем: Guardrails как щит от рисков в агентных системах
Вы когда-нибудь задавали вопрос AI-чатботу и получали в ответ что-то вроде: «Я не могу с этим помочь»
Как мы сделали AI-агента и пользуемся им на практике
Привет, Хабр! В последнем обновлении Explyt мы добавили AI-агента для написания кода. В этой статье расскажем, что он умеет и как мы сами его используем.
Koda: AI-помощник разработчика – бесплатно, без VPN, с поддержкой русского языка
Индустрия ИИ переживает рекордный бум: каждую неделю появляются новые модели, а заголовки пестрят новостями о многомиллионных контрактах и громких переходах звёздных исследователей. Прорывы происходят на всех уровнях: от чипов и инфраструктуры (NVIDIA и др.) до моделей и инструментов вроде Cursor или Windsurf.Но у российских разработчиков выбор заметно ýже: ограничения, VPN, трудности с оплатой. Мы решили это изменить и создали Koda
Особенности применения LLM в режиме полной автономности
Введение Приветствую! Я — автор портала текстовых игр в жанре "квест" questio.ru. Основная цель проекта — полностью автоматизировать роль автора игры, исключив человеческое вмешательство. Это стало возможным с появлением доступных LLM достаточной "сообразительности".Но, как это часто бывает, разработка быстро сместилась с решения бизнес-задач на преодоление технических трудностей. В этой статье я поделюсь опытом, который, надеюсь, поможет начинающим разработчикам избежать типичных ошибок при работе с LLM (Large Language Models).Общие проблемы

