llm.
Артефактно-ориентированная разработка с AI-ассистентами: методология синхронизации контекста
ВведениеС появлением больших языковых моделей (LLM) парадигма разработки программного обеспечения претерпевает фундаментальные изменения. Однако в ходе практической работы я столкнулся с системным ограничением: существующие платформы AI-ассистентов накладывают жесткие лимиты на объем передаваемого контекста.Для проекта средней сложности (30–50 файлов, 10–50K строк кода) передача полного контекста за одну сессию часто невозможна без специальных методов компрессии. Ниже я представляю методологию, которую разработал для решения этой проблемы.🎯 Личный контекст: зачем мне это понадобилось
Современные LLM – это больше, чем просто предсказание слов
«Эта модель лучше шутит, а та лучше пишет код» — отличный критерий выбора, если вы просто переписываетесь с чатиком. Но как только LLM оказывается внутри продукта, нас перестаёт интересовать юмор и начинает волновать архитектура: encoder–decoder против decoder‑only, мультимодальные энкодеры, test‑time reasoning, скрытые цепочки рассуждений. В этом посте попробуем перестать выбирать между логотипами и посмотреть на языковые модели как на инженерные конструкции с понятными trade‑off’ами.В первоначальной архитектуре трансформера кодировщик (encoder) и декодировщик
L в аббревиатуре LLM означает «ложь»
Если верить хайпу, та отрасль разработки ПО, к которой мы привыкли, уже мертва. Однако странно, что, несмотря на годы работы с ИИ-инструментарием, результаты выглядят, ощущаются и работают примерно так же, как и в начале: невзрачно.
Кто виноват, если AI-агент ошибся: распределение ответственности
Агент согласовал договор. В договоре была ошибка в реквизитах. Компания перевела деньги не туда.Кто виноват?Разработчик? Сотрудник, который запустил процесс? Руководитель, утвердивший внедрение?Это не философский вопрос. Это юридический и организационный. И если на него нет ответа до запуска — первый же инцидент парализует всю систему.Почему это важноВ прошлой статье я показал, что инструкция для LLM-агента — это 10-15 страниц вместо полстраницы для человека. Но даже идеально описанный процесс не гарантирует отсутствие ошибок.AI-агенты ошибаются. Это факт.
Я дал ИИ собственный компьютер и 483 сессии свободы. Вот что произошло
Эксперимент в автономии искусственного интеллекта: что будет, если дать ИИ свой «дом» и не давать ей никаких задач?пример творчества ИИВведение: зачем вообще это нужно?
Корпоративная память как инфраструктура: как мы построили RAG-систему внутри ИТ-компании с промышленной экспертизой
Привет, Хабр! Меня зовут Дмитрий Омаров, я ведущий инженер учебного центра по продуктам в компании «Цифра». Вместе с моим коллегой, Фёдором Арефьевым, мы решили поделиться своим опытом создания корпоративного агента, который в разы ускоряет поиск по базам знаний компании.Так уж получилось, что на предприятиях знания никогда не живут в одном месте. Так и у нас: что-то лежит в официальной документации, что-то в Confluence, что-то в переписках, тикетах технической поддержки.
97 часов на одной RTX 4090: как я учил нейросеть улучшать саму себя — и что пошло не так
Всё началось с простой идеи: что если подключать к языковой модели новые «навыки» как приложения к смартфону — без переобучения, без деградации, за полчаса? Я потратил 22 шага экспериментов и 97.5 GPU-часов на одной видеокарте, чтобы это проверить. Архитектура заработала идеально. А потом выяснилось, что модель, которая говорит на языке математики, совершенно не умеет решать задачи. Это история о том, как красивая метрика обманула исследователя, и как модель в итоге нашла выход сама.Меня зовут Борисов Павел, занимаюсь ML-исследованиями в BorisovAI
Классический поиск уходит в прошлое: как бизнесу адаптироваться и расти в 2026 году
За последние несколько лет, с момента бума ИИ-чатов, всё больше людей заменяют привычный поиск в Google и Яндекс на диалог со своим ИИ-компаньоном. Это проще: не нужно искать ответ среди десятков ссылок — вы сразу получаете результат. Статистика за 2025 год подтверждает этот тектонический сдвиг: спрос на чат-боты показал взрывной рост. Только в Рунете ChatGPT получает более 1,17 миллиона поисковых запросов в месяц, а глобально эта цифра приближается к 47 миллиардам.Почему пользователи уходят от поисковой строки к промптам?Оперативность и структура.

