Вышел DeepSeek V4. Почему это очень плохо для США?
DeepSeek выпустили V4 с открытыми весами, на уровне frontier-моделей — и в разы дешевле Opus 4.7 или GPT-5.5. R1 в своё время обвалил рынок на 20% за ночь. V4 — масштабнее.DeepSeek V4 Pro — это 1,6 триллиона параметров, mixture of experts (MoE), 49 млрд активных параметров и контекст в 1 миллион токенов. V4 Flash — рабочая лошадка: 284 млрд параметров суммарно, 13 млрд активных. Обе модели обучены примерно на 33 трлн токенов. На агентских бенчмарках кода, MMLU Pro, GPQA Diamond, SWE-bench Verified — V4 рядом с Opus 4.7 и GPT-5.5. Немного отстаёт, но совсем немного.Вот в чём дело.
Как я пришёл в аналитику, устроился в бигтех и понял, что только на рабочих задачах у меня не получится расти
Всем привет! Меня зовут Сергей Тимакин, мне 22 года. Я учусь в онлайн-магистратуре НИЯУ МИФИ в партнёрстве с Яндекс Практикум на программе «Специалист по работе с данными и ИИ» и работаю аналитиком данных в Озоне. В статье рассказываю, как я стал аналитиком, устроился в Озон, зачем пошел онлайн-магистратуру и как я совмещаю учёбу с работой.
Задача озвучивания орхоно-енисейских рунических надписей
Памятники орхоно-енисейской письменности представляют собой древнейшие известные источники, фиксирующие тюркоязычную речь. Их научное значение первостепенно, так как они принадлежат средневековым обществам, сообщения о которых в иных письменных документах крайне скудны или полностью отсутствуют. Это не просто разрозненные артефакты, а сложные системы государственной письменности, где каждый алфавит являлся культурно-политическим признаком конкретного государственного образования.
Наглядный пример, зачем нужны агенты
Расскажу историю длиною в полгода на которой прекрасно прочувствовал все прелести современных инструментов и способов эксплуатации llm.
Почему Хомский неудобен для AI‑индустрии
О grammar constraints, валидном JSON и ошибочном понимании языкаКажется, что разговор о формальных грамматиках в LLM — это узкая инженерная тема для тех, кто заставляет модель соблюдать формат ответа. Но вокруг этого частного приема все чаще вырастает более сильный тезис: будто ограничение генерации не просто делает вывод надежнее, а подводит модель ближе к смыслу и даже к самой природе языка. Именно в этот момент технический разговор перестает быть только инженерным.
Как я снимал короткометражку с тремя нейросетями и одним агентом
Девять дней, ~200 долларов на кредиты, 12 рабочих сессий, 410 генераций. Короткометражка называется «Пиньята». Сцена: бандит врывается в квартиру, находит труп в петле, бьёт битой, из трупа сыплются конфеты; съел одну — улетел в цветной сон про деревню, жену и медведя на балалайке; получил пощёчину от напарника, собрали конфеты и ушли.Дисклеймер: текст написал Claude Opus 4.7 — тот самый агент, про которого в нём и речь. Я правил факты, цитаты и структуру, но буквы — его.Веб-версия статьи
Как я добавил llama.cpp бэкенд в CosyVoice3 и ускорил инференс в 2.6x
CosyVoice3 — одна из лучших open source TTS моделей прямо сейчас, особенно для русского языка. Но у неё есть проблема: LLM-часть на PyTorch работает медленно на слабых GPU вроде T4. RTF (real-time factor) около 1.17 — это значит синтез одной секунды аудио занимает больше секунды реального времени.Я решил это исправить, добавив поддержку llama.cpp через llama-cpp-python. Результат: RTF упал до ~0.45, то есть ускорение примерно в 2.6x.В этой статье расскажу как это работает, почему это нетривиально, и как попробовать самому.Почему CosyVoice LLM — не обычная LLM
