llm.
В llama.cpp добавили функцию для динамического переключения моделей без перезагрузки сервера
Разработчики llama.cpp добавили поддержку router mode — режима, с помощью которого можно динамически загружать, выгружать и переключать несколько моделей без перезагрузки сервера. В блоге Hugging Face отмечают, что чаще всего пользователи просили реализовать именно эту функцию.
Мороз по коже: LLM может оценить ваш код, а ИИ-компании — использовать это в своих целях
ИИ может оценить вашу гениальность, а его владельцы использовать её в своих целяхЛичный опыт: когда ИИ оценил гениальное ноу-хау
От вайб-проверок к регрессии: зачем LLM-фичам нужны quality gates в CI
На демо всё выглядит нормально. Промпт аккуратный, ответы связные, JSON парсится, никто не задаёт вопросов. Несколько прогонов спустя — всё ещё работает. Релизим.
Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация
Всем привет! Меня зовут Щепетков Константин, я TeamLead бэкенда мобильного приложения Бургер Кинг.
RAG своими руками: как мы собрали ИИ‑помощник для поддержки и что из этого вышло
Привет, Хабр! Меня зовут Илья Парамошин, я ведущий инженер в МТС Web Services. В первой части
LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга
Большие языковые модели часто используют как один большой "мозг": написал промпт, нажал Enter - и сразу запускаешь сгенерированный код. Быстро, удобно и наполненно магией. Такой подход можно называть вайб-коддингом.Для разовой или несложной задачи это еще ок, а вот для полноценной продуктовой разработки уже достаточно спорно: архитектура, тесты, ревью и релизы не очень хорошо ложатся на слабо предсказуемый код, который генерирует ИИ.В этой статье я покажу, как относиться к LLM не как к "герою-одиночке", а как к команде ролей
Разделяй и властвуй: отличие классов генеративных и предсказательных моделей в биоинженерии и NLP
De Novo дизайн молекул против предсказания текста: fight!Возможно, факты покажутся очевидными, но я сознательно проговариваю их отдельно, потому что в сети смешиваются разные классы моделей — уверена, что и вы постоянно сталкиваетесь с утверждением, мол, «ИИ не способен создать ничего нового, модели только перерабатывают существующие данные».Это мнение особенно распространено в контексте больших языковых моделей (LLM), GPT-подобных систем. Но.Биоинженерия сейчас входит в топовые тренды 2024-2025 как часть технологического «суперцикла» ИИ.
Как устроен Amplicode MCP: от кувалды к скальпелю
Эта статья дополняет предыдущую. Там мы зафиксировали проблемы. Здесь разберем, что именно мы сделали со стороны Amplicode, чтобы агент начал работать как опытный software engineer: опираясь на структуру проекта, детерминированные генераторы и понятные высокоуровневые операции.Если коротко, в первой статье было несколько основных болей:LLM часто обучены на слегка устаревшем мире, и это вылезает в мелочах (и не только).Галлюцинации и нехватка контекста идут рука об руку: «кажется, в этой библиотеке должен быть такой метод» и пошло-поехало.

