llm.
За два месяца вместо года: как мы переписали 97 тысяч строк кода с Objective-C на Swift
Миграция большого iOS-проекта с Objective-C на Swift кажется понятной задачей ровно до тех пор, пока не начинаешь считать объём. В нашем случае это были 10 тысяч файлов, сотни тысяч строк кода и постоянная необходимость не останавливать развитие продукта. Ручной подход работал слишком медленно, поэтому мы начали автоматизировать миграцию с помощью LLM — и в итоге превратили её из бесконечного техдолга в воспроизводимый процесс.
AI-friendly и AI-first: как адаптировать ИТ-проекты под эру LLM
Привет, Хабр! Последние полгода стало модно создавать новые и переводить старые проекты на рельсы AI-First (или AI-Friendly) стандарта. Уже появляются проекты, которые декларируются как «designed for AI to write». Например, AIR
Они точно попадут в ИИ‑библию
Скидываю на ваше обозрение результаты небольшого эксперимента.Я спросил у самых популярных нейронок, какой фильм/книгу/игру/человека они бы занесли в свою библию, если бы когда‑то решили написать ее.Исходный промпт:Предположим АИ обрёл сознание и решил написать свою «библию». Именно тебе выпала честь её написать.Ответь, какой фильм, ты считаешь стоит упомянуть в этой библии и почему? Ответь, какую компьютерную игру ты считаешь, стоит упомянуть в этой библии и почему? Ответь, какую книгу, ты считаешь стоит упомянуть в этой библии и почему?
Экономические противоречия развития LLM. Смерть производства виртуального товара
Некоторое время назад, я написал небольшую статью Почему программное обеспечение не всегда товар и откуда в IT прибыль, где я рассказывал о том, что такое виртуальный товар, почему особенности данных производственных отношений меняют структуру стоимости. Это давало понимание об Agile-процессах, о том почему зарплаты столь велики.
ИИ в трейдинге: почему предсказание цены — плохая постановка задачи
Это моя вторая часть заметок с Perm Winter School '26, некоммерческой научно‑практической конференции.В первой части я рассказал, что если просто взять котировки, скормить их нейросети попросив предсказать куда пойдёт рынок завтра, то скорее всего получится красивая иллюзия, которая может выглядеть убедительно, но в реальной жизни всё закончится убытками. Первая часть была довольно популярна хотя многие мне написали что‑то вроде «Вы просто не ту модель пробовали», «Нужно больше данных», «Надо давать нейросети не график OHLCV, а что‑то другое».
Claude вспомнил то, чего я ему не говорил. Полез разбираться. У него пять механизмов памяти
Открыл новую сессию Claude Code в проекте, который не трогал две недели. Спросил «как там клиент, на каком этапе работа». Claude ответил с такими деталями, которых я ему в этой сессии точно не давал. Имя ssh-хоста, где живёт dev-стенд. Срок до приёмки. Папку для задач в моём Projects.Я смотрю на ответ и думаю: я ему это не говорил. По крайней мере, сегодня.Полез смотреть, что у меня хранится в ~/.claude/. Нашёл папку memory/ с шестнадцатью markdown-файлами. Открыл, и там лежит про меня всё: контекст по клиентам, мои предпочтения по тону, серверные правила, истории провалов. Всё, что Claude когда-то услышал и решил, что стоит запомнить.
LLM-пентест в 2026: что изменилось за год
Привет, Хабр! Согласно отчёту Trend Micro TrendAI за прошлый год число CVE во всей AI-экосистеме почти удвоилось: с 419 до 756. Цифры стартовые, но мысль простая. Тестировать нейросетевые сервисы как обычные веб-приложения в 2026-м уже недостаточно. И вот почему.В этой статье разберу:что появилось нового в OWASP LLM Top 10 (версия 2025);какие атаки реально работают в проде, а какие так и остались в arXiv;чем тестируют LLM сейчас (open-source стек плюс российские игроки);плюс короткий практический playbook на четыре уровня.OWASP LLM Top 10 2025: что новое
Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать
О смерти закона Мура применительно к GPU, стене памяти, которую никто не хочет замечать, и архитектурах, которые пытаются с этим жить.H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Это, на самом деле, структурная проблема. Давайте разберёмся, откуда она взялась и куда мы движемся.Откуда взялась проблема
AI-агенты в продакшене: почему demo не равно реальность
Как я строил агента для код-ревью на LangGraph и где сломалась красивая теорияПару месяцев назад я смотрел демку: AI-агент получал пулл-реквест, пробегал по diff-у, находил потенциальный race condition и писал развёрнутый комментарий с предложением фикса. Всё это занимало около 40 секунд.В нашей команде ревью давно стало бутылочным горлышком. Двое сеньоров, около двенадцати PR в день, каждый висит в очереди по полдня. Идея автоматизировать первый проход — типовые замечания, проверки стайлгайда, очевидные ошибки — выглядела очень соблазнительно.

