llm. - страница 23

llm.

Если агент пишет код, то кем становится человек?

Андрей Карпати в январе 2026 года ввёл термин agentic engineering и сказал: вы не пишете код 99% времени, вы оркеструете агентов и выступаете надзором. Борис Черни, руководитель Claude Code в Anthropic, сообщил, что с ноября не правил ни одной строки руками и отгружает по двадцать с лишним пуллреквестов в день. Весь код пишет агент. Формулировки красивые. Хуже, что никто из них не объясняет, чем именно занят человек в эти 99% времени и что происходит, когда процесс не выстроен.

продолжить чтение

Как за 30 000р дообучить модель, которая работает на уровне GPT-5.4 — на задачах российских учителей

Продолжение. В первой статье мы протестировали 30 нейросетей на задачах для российских учителей. Российские модели заняли последние места. Но строчка #9 — наша: дообученная модель за ~30 000₽, которая работает локально. Вот как мы её сделали.Зачем вообще дообучатьВ комментариях к первой статье справедливо спросили — почему российские модели плохи? GigaChat-2 Max набрал 2.39 из 4, YandexGPT 5.1 Pro — 2.51. Ответ простой: в обучающей выборке этих моделей мало российских школьных задач, они оптимизированы под чат, не под образовательную деятельность.

продолжить чтение

Курсы по работе с LLM: осваиваем RAG-метод

RAG стал стандартом работы с LLM-системами: без retrieval-механизма языковые модели ограничены обучающими данными и «галлюцинируют» на незнакомых темах. Новые итерации курсов, связанных с обучением по взаимодействию с LLM, это прекрасно отражают, фокусируясь на практическом применении: от сборки ботов до интеграции агентов в корпоративные процессы. Что предлагают школы? Смотрим вместе с Хабр Курсами.Оглавление

продолжить чтение

Как устроен AI-агент изнутри

«Любая достаточно развитая обвязка неотличима от магии» — перефразированный Кларк, после недели ковыряния в исходниках.Внимание! Много букв, читать и познавать только для собственного развития в области работы AI-агентов.Последний год в тему AI-ассистентов для кода заходят буквально все — от одиночных разработчиков до крупных команд, у которых бюджеты на облачные модели уже сопоставимы с зарплатами джунов. Одни работают через веб-интерфейс, другие — через IDE-плагины, а третьи — прямо в терминале, в виде CLI-агента.

продолжить чтение

Как из факапа родился продукт: история EasyDoc

Привет, Хабр! Меня зовут Вадим Петросян, я директор по развитию бизнеса в ITFB Group

продолжить чтение

785 статей. 26 доменов. Для агентов, не людей

Live: https://happyin.space/ Repo: https://github.com/AnastasiyaW/knowledge-space (MIT)Когда агент пишет код в пустом проекте, он тратит первые 30-40% токенов на понимание того, что происходит вокруг. Не на работу - на ориентацию. README рассказывает мотивацию, туториал ведёт за руку, API-reference описывает параметры. Ни один из этих форматов не отвечает на вопрос, ради которого агент и пришёл: “вот задача, какой паттерн скопировать и где здесь грабли?”

продолжить чтение

Как развернуть Qwen в облаке так, чтобы модель не была доступна из интернета

продолжить чтение

Практическое руководство по Qwen: установка, настройка vLLM и работа через API

продолжить чтение

Как мы встроили LLM в Data Quality и не потеряли контроль

Привет, Хабр! Меня зовут Макунина Арина, я аналитик и инженер данных в Just AI. Наша команда аналитики обожает, чтобы рутина в данных была максимально предсказуемой. Если что-то ломается, то должно быть понятно что, где, почему и что делать дальше. Когда мы поработали с Data Quality в продакшене, выяснилось, что правила качества сами по себе есть базовый минимум, но время утекает в две черные дыры.Первая — это эффект белого листа.

продолжить чтение

Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака

Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезает в видеопамять. Всё изменилось когда я наткнулся на статью про MoE-модели и параметр -cmoe в llama.cpp.Расскажу как я запустил Qwen3.6 35B-A3B на RTX 4070 12GB с 32GB RAM, настроил его как AI-ассистент для реального проекта в opencode, и почему теперь эта модель у меня работает постоянно.Железо и ожиданияМоя конфигурация:GPU: RTX 4070 12GB VRAMRAM: 32GB DDR4CPU: 12 физических ядерOS: Windows 11 + WSL2 (Ubuntu)

продолжить чтение

1...10...212223242526...3040...236