Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре.
LLM бенчмарк «Испытание Дали»
Обложка нарисована в ChatGPT Image-2Помните анекдот?— Что вы умеете лучше всего? — Я очень быстро считаю. — Сколько будет 758×652÷9? — 22! — Но это же неправильно! — Зато очень быстро.
Автоматизация процессов на open source — n8n и Ollama
Привет, Хабр. Я бизнес-архитектор, в свободное от основной работы время занимаюсь обучением, а также автоматизацией учебного процесса на базе open source инструментов. В качестве инструмента автоматизации процессов я недавно начал применять сервис n8n. В этом материале я расскажу о собственной практике использования инструмента n8n, а также затрону возможности использования больших языковых моделей (LLM), установленных локально с помощью Ollama для создания AI-агентов в n8n. Почему n8n
AI-суперапп – главный тренд 2026 по версии Forbes. Что мы видим из GPTunneL с позиции 2 млн пользователей
В декабре я рассказал на Хабре, как GPTunneL вырос от прототипа до 1,5 млн пользователей. С тех пор нас стало 2 млн. Подумал – пора рассказать, что мы делаем сейчас и куда идём. Хабр для этого хорошее место.Если коротко: строим и обучаем собственную модель GROM, развиваем GraphRAG, Creative Lab, vibe-coding, работаем над оркестрацией 100+ моделей через единый интерфейс. Под всё это – ML-команда, начинаем строить инфраструктуру под претрейн, прямые партнёрства с MiniMax, ByteDance, Alibaba, Сбером и рядом других поставщиков моделей – как китайских, так и западных.
Антиспам на нейронках: Gemini Flash в 1000 раз дешевле чем GigaChat
Сравнение LLM для антиспама
Попросил нейросети ChatGPT, DeepSeek и GigaChat собрать игровой ПК за 100 000 рублей. Кто справился лучше?
Три нейросети, один бюджет, ноль гарантий))
Kimi K2.5 наступает на пятки GPT-5.4. И работает из России без VPN
Бенчмарков сейчас – как нейросетей: каждую неделю новый. GPQA Diamond тестирует PhD-знания. Lexometrica проверяет фактическую точность. LLM Persuasion Benchmark – способность убеждать в дебатах. Chatbot Arena – предпочтения живых людей. Резонный вопрос: зачем ещё один?
Россия — третий полюс мирового AI. Агентов запускаем на Raspberry Pi
a16z - один из крупнейших венчурных фондов планеты - выпустил свой ежегодный рейтинг Top 100 AI Apps. И впервые в истории зафиксировал Россию как отдельный полюс на глобальной AI-карте. Три полюса: Запад (ChatGPT, Claude, Gemini), Китай (DeepSeek, Doubao, Kimi), Россия (Алиса, GigaChat).Яндекс Браузер с Алисой - 71 миллион активных пользователей в месяц, топ-10 мировых мобильных AI-приложений. GigaChat от Сбера дебютировал в веб-рейтинге на 48-й позиции.Я прочитал это и на секунду обрадовался. А потом полез в цифры.«Санкции создали вакуум - локальные продукты заполнили»
GigaChat-3.1: Большое обновление больших моделей
Салют, хабр!В ноябре мы выложили в open source preview-версии GigaChat-3-Ultra (702B MoE) и GigaChat-3-Lightning (10B MoE). С тех пор мы провели большую работу над нашими моделями, и сегодня выпускаем обновлённые GigaChat-3.1-Ultra и GigaChat-3.1-Lightning. По нашим замерам, Ultra обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning, а Lightning на аренах с судьёй GPT-4.1 играет на уровне GPT-4o — при 1,8 млрд активных параметров. Модели, как и раньше, лежат на HuggingFace и GitVerse под MIT.

