llm.
Как изменилась индустрия AI Security за 2025 год?
В начале 2026 года мы (авторы телеграм-каналов по безопасности ИИ) собрались, чтобы подвести итоги прошедшего года и обсудить, куда движется безопасность ИИ в общем и целом. Разговор получился честным, на наш взгляд. Без маркетингового глянца, с открытыми разногласиями и скептицизмом там, где скептицизм заслужен.Участники дискуссии - Я, Артём Семенов, автор PWNAI; Борис Захир, автор канала Борис_ь с ml; Евгений Кокуйкин, создатель HiveTrace и автор канала Евгений Кокуйкин - Raft; и Владислав Тушканов
Как стать программистом: от Intel 286 до Large Language Models
ВведениеВ середине 90‑х я получил первый домашний компьютер — IBM‑совместимую машинку на процессоре Intel 286. Установка Windows требовала кучу дискет, а жёсткий диск вмещал «весь» 20‑30 МБ. Информация тогда хранилась в бумажных книгах и в полках библиотек. Сейчас, спустя почти три десятилетия, обучение программированию выглядит совершенно иначе. Ниже я расскажу, как менялись возможности обучения, и почему сейчас Large Language Models (LLM) могут стать вашим личным наставником. 1. 1990‑е: поиск знаний в библиотекеКак всё начиналось
Anthropic выпустила Claude Sonnet 4.6 с контекстом в 1 млн токенов
Anthropic представила Claude Sonnet 4.6 — обновлённую версию своей «средней» модели, которая по ряду задач уже приближается к уровню Opus.Теперь Sonnet 4.6 — модель по умолчанию в claude.ai
Почему многоагентные системы ломаются (и почему это нормально)
Есть ощущение, что мы сейчас живём в странный период: LLM-агенты уже умеют “делать работу”, но ещё не умеют быть предсказуемыми.На демке всё выглядит идеально: — один агент пишет код, — второй — тесты, — третий — делает ревью, — четвёртый — собирает артефакты и отчёт, — пятый — “оператор”, который всё это оркестрирует.Первые пару запусков ты сидишь и думаешь: “Ну всё. Завтра индустрия будет другой”. На третьем запуске агент уверенно сообщает: “Я исправил проблему”, и одновременно:аккуратно удаляет половину нужных миграций,“чуть-чуть” меняет контракт API,
Я vs. машина
Прошёл примерно год с тех пор, как я начал активно использовать Claude Code для разработки, и, как я уже писал, это существенно изменило мои рабочие процессы. Продуктивность действительно выросла — но в основном по ощущениям, а они у меня примерно такие же надёжные, как мои эстимейты (то есть никакие, и лучше не станут). Так что я решил, что пора проверить своё чутьё абсолютно научно пуленепробиваемым способом (со статистически высокозначимой контрольной группой из меня, себя и моей собственной персоны).Эксперимент, о котором никто не просил
Из «песочницы» в Production: как мы масштабировали RAG-систему для эксперта по охране труда
Привет, Habr! Наша команда LLM-разработки подготовила статью о реальном практическом опыте тюнинга и тонкой настройке RAG-системы в области охраны труда. Каждый, кто начинал работать с LLM, проходил через этот «медовый месяц»: вы берете LangChain, загружаете с десяток PDF-файлов в ChromaDB, пишете простенький промпт — и происходит магия. Бот отвечает, эксперты в восторге, MVP готов за выходные.
FreeAIr: доступ к локальной или корпоративной LLM из Visual Studio 2022-2026
FreeAIr - это расширение (vsix) для Visual Studio 2022/2026, которое позволяет использовать локальную или корпоративную LLM внутри Visual Studio для помощи программисту. Это не Copilot, а независимая разработка авторов из РФ. Как и любая другая разработка энтузиастов, FreeAIr, конечно, не сравнится с Copilot по функциям и глубине интеграции, но это намного лучше, чем ничего. Кроме того, FreeAIr никуда не отправляет ни телеметрию, ни Ваш код, ничего, и поэтому может использоваться в компаниях, где использование сторонних LLM запрещено политикой конфиденциальности.
LLM вместо «прочитаем потом»: анализ постмортемов и паттерны инцидентов
Ваши инциденты содержат основу для самых стратегических улучшений инфраструктуры — если вы умеете правильно их «слушать».TL;DR: Мы подключили LLM как ассистента для SRE и прогнали через него тысячи постмортемов, чтобы вытащить из архива повторяемые причины и сценарии отказов. Конвейер автоматически находит паттерны инцидентов — в нашем случае в основном вокруг хранилищ данных: Postgres, AWS DynamoDB, AWS ElastiCache, AWS S3 и Elasticsearch. Это заметно ускоряет разбор, подсвечивает скрытые точки напряжения и помогает формировать список приоритетных инвестиций в надёжность.
Нанимаем ChatGPT на работу или автоматизация бизнес-процессов
AI и LLM сейчас на пике популярности. Но чаще всего их используют как инструменты, постоянно требующие времени и внимания. А что, если сделать из них «сотрудников», которые сами автономно будут выполнять часть вашей работы?

