Локальный ИИ в OpenIDE: Mellum + Continue + Ollama
ИИ в разработке уже не новость, а обыденность. На этом фоне набирает обороты другая тенденция — запускать модели локально. Причины понятны: приватность кода, работа без интернета, предсказуемая задержка и никакого вендор-лок. Вы контролируете, какая модель у вас крутится, какие данные она видит и что именно отправляется «наружу» (спойлер: ничего).
Современная разработка или пиши тогда сразу в «Блокноте»
Стандарты индустрии они такие
.ap: удобный для ИИ формат патчей, который экономит мне часы
Привет, Хабр! Возможно, вы знаете меня по дайджестам проекта far2l, но сегодня хочу поделиться кое-чем другим. Это небольшая и очень полезная утилита и формат файлов для неё, которые родились из моей повседневной работы с AI-ассистентами (в том числе в процессе работы над тем же фаром). Штука получилась настолько удобной, что я решил поделиться ей с сообществом. Поехали!Боль и страдания ручного копипастаДумаю, многим здесь знаком этот цикл:Вы: «Перепиши вот эту функцию, чтобы она обрабатывала ещё и такой-то случай».AI: «Конечно! Вот обновлённый код…» (выдаёт красивый блок кода).
Вайб-кодинг уязвимостей или как AI роняет безопасность
Выглядит безопасно.Писать код с LLM — очень легко, просто и весело. Не нужно мучаться с документацией, не нужно фиксить баги. Вообще ничего не нужно. Только инструкцию в чат написать. Раз-два — и всё готово. Заманчиво? Да. Но у всего есть цена — и про неё важно помнить.
Как нас попытались «положить» при запуске: история одной DDoS
Всем привет! Мы - команда разработки ai-стартапа и это третья статья, посвященная нашему продукту.Я уже писал о внутрянке продуктовой и технической части, поэтому сегодня решил поделиться кейсом нашего третьего запуска, во время которого нас атаковали хакеры..ПредысторияМы с командой работаем над ии-ассистентом для поиска работы, который забирает на себя всю рутину соискателя: ищет вакансии, делает отклики, пишет сопроводы, общается с рекрутерами. Один из главных принципов продукта - закрытый доступ, который мы открываем 1 раз в месяц. Такой подход помогает нам распределять нагрузку и равномерно расти.
Ловушка ИИ-кодинга
Представьте себе: вы наблюдаете, как кто-то «пишет код». На экране — редактор, пара открытых вкладок, мигает курсор. Но человек почти не печатает. Он просто сидит и задумчиво смотрит в одну точку.Нет, он не ленится. Просто программирование — это не про набор текста, а про решение задач. Как в кроссворде: большая часть работы происходит в голове, а не на клавиатуре.
Как работает Context Engineering в Claude и других агентах
Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Уплотнение, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.Контекст — критически важный, но ограниченный ресурс для AI-агентов. В этой статье мы разбираем стратегии по грамотному отбору и управлению контекстом, который ими управляет.
Ling-1T: триллион параметров, 50 млрд активных — новая архитектура «эффективного мышления»
InclusionAI представила Ling-1T, первую модель на архитектуре Ling 2.0, оптимизированной для «efficient reasoning». Это триллион-параметрическая MoE-модель, в которой на каждый токен задействуется лишь ~5 % нейронов — и всё это при 128 K контексте и FP8-обучении.Что известно о модели:Обучена на 20 трлн токенов, из них 40 % — задачи с рассуждениями.Поддерживает контекст до 128 K токенов.Использует новый подход Evo-CoT (Evolutionary Chain-of-Thought) для «поэтапного мышления».В кодовых бенчмарках (mbpp, LiveCodeBench) — уверенно обгоняет GPT-5 и DeepSeek-V3.

