llm.
Запуск ИИ‑продукта с нуля: от гипотезы до первых результатов
ИИ всегда, ИИ везде… Да, мне тоже уже порядком поднадоели упоминания искусственного интеллекта к месту и не очень. Все, от покрышек до зубных щеток производится с использованием ИИ… по крайней мере, если верить рекламе. Но на самом деле несмотря на ажиотаж вокруг искусственного интеллекта, статистика остаётся неумолимой: около 80% AI‑проектов терпят неудачу, а почти 90% Proof of Concept (PoC) никогда не достигают полноценного развёртывания в продуктив.
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре.
️ Zyphra выкатила ZAYA1-8B — маленькую MoE-модель, которая выглядит слишком бодро для своего размера
У модели меньше 1 млрд активных параметров, но Zyphra заявляет, что она конкурирует с куда более крупными open-weight и proprietary-моделями на математике, кодинге и reasoning-бенчмарках.ZAYA1-8B - это ставка на весь стек сразу:MoE-архитектура с Compressed Convolutional Attention;новый MLP-router для более стабильного выбора экспертов;learned residual scaling для контроля роста residual-норм;pretraining на AMD Instinct MI300x, без NVIDIA-стека;большой post-training pipeline с SFT, reasoning warmup, RLVE-Gym, math/code RL и RLHF/RLAIF;test-time compute метод Markovian RSA.
Veai 5.10: общие скиллы и подсказки в чате
Главное в релизе – скиллы теперь подхватываются из dot-директорий других ассистентов. В чат добавили быструю документацию по ссылкам на код.Скиллы из dot-директорий других вендоровТипичная ситуация – в команде один работает на Claude Code, второй на Cursor, третий на Veai. У каждого своя папка под скиллы, и одни и те же инструкции расходятся по .claude, .cursor, .veai. Чтобы агент в Veai знал то же, что агент в Claude Code, скиллы приходилось копировать руками и потом следить, чтобы версии не разъехались.Теперь Veai ищет скиллы не только в .veai/skills/*/SKILL.md, но и в .*/skills/*/
Токенизация: почему ИИ сложно считать буквы «r» в «strawberry»?
Пока мы воспринимаем свои промпты как обычный текст из символов, для LLM они в виде токенов «выглядят» совсем иначе. И если не осознавать этого, порой можно наткнуться на проблемы. Поэтому полезно (и интересно) понимать: что вообще представляют собой токены? По какому алгоритму текст преобразуют в них и обратно? Какие важные нюансы при этом возникают?Возможно, подробнее и понятнее всех объяснил пару лет назад ИИ-рисерчер Андрей Карпатый, записав двухчасовое видео
Монтаж видео через Claude Code
Разбираю архитектуру открытого проекта от browser-use: как заставить LLM монтировать без необходимости «смотреть» видеоКогда речь заходит про обработку видео нейросетями, у большинства из нас в голове всплывает одна и та же картина: модель смотрит на кадры, что-то понимает на основе изображения, режет по визуальным признакам. На практике это упирается в простую арифметику. Часовое видео в 30 fps — это 108 000 кадров. Если каждый кадр стоит хотя бы 1500 токенов, получаем 162 миллиона токенов на одно видео. Никакая модель столько не возьмёт за один проход, а если резать на куски — теряется глобальный контекст.
Разбираю «Qwen3.5-21B-Claude-4.6-Opus-Heretic-Uncensored»: что на самом деле внутри файнтюна с громким именем
Технический разбор модели, которую в телеграме продают как «Claude без цензуры»В моей ленте недавно завирусился пост: якобы кто-то «дообучил Qwen 3.5 до уровня Claude 4.6 Opus, убрал цензуру через Heretic и получил настоящего монстра». Звучит сенсационно. Я зашёл на HuggingFace, открыл карточку модели и провёл вечер, разбираясь, что там реально под капотом.
Штампы LLM. Разбираю с новой точки зрения
Как и миллионы людей, уверенных, что уж они-то знают то, что обязательно нужно рассказать другим, решил написать книгу о промптах. В процессе написания (который, кстати, оказался, куда сложнее, чем предполагалось), я рассматривал штампы LLM. Ну вы их знаете. По крайней мере в комментариях к статьям на Хабре, сотни экспертов определяют LLM именно по ним.В общем, штампы есть, и в промптах авторов многих статей все они перечислены для исключения из текста. Хорошо это или плохо, я разберу ниже.
Собственная LLM в корпоративном контуре: как мы собрали RAG на n8n и сократили расходы в 5,5 раза
Привет, Хабр! На связи команда ИТ-инфраструктуры и автоматизации, а именно Ольга Мастерова, Анастасия Иванова и Филипп Теряев.Мы во Flowwow настоящие фанаты автоматизации. На дату публикации этой статьи в нашем корпоративном мессенджере внедрено больше 270 автоматизаций, и это далеко не конец. У вас наверняка возникает закономерный вопрос: а зачем так много?
Почему чат‑бот не справляется с юридической работой и чем от него отличается ИИ‑агент
Юрист открывает ChatGPT, вставляет договор и просит проверить на риски. Получает две страницы общих рекомендаций: обратите внимание на ответственность, проверьте форс‑мажор, уточните сроки. Всё правильно, но бесполезно, потому что модель не знает контекст компании. Не помнит, что с этим контрагентом уже трижды судились. Не видит типовой договор, с которым нужно сравнить. Каждый новый чат — с чистого листа, и юрист каждый раз объясняет одно и то же.

