gigachat.

Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее

Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре.

продолжить чтение

LLM бенчмарк «Испытание Дали»

Обложка нарисована в ChatGPT Image-2Помните анекдот?— Что вы умеете лучше всего? — Я очень быстро считаю. — Сколько будет 758×652÷9? — 22! — Но это же неправильно! — Зато очень быстро.

продолжить чтение

Автоматизация процессов на open source — n8n и Ollama

Привет, Хабр. Я бизнес-архитектор, в свободное от основной работы время занимаюсь обучением, а также автоматизацией учебного процесса на базе open source инструментов. В качестве инструмента автоматизации процессов я недавно начал применять сервис n8n. В этом материале я расскажу о собственной практике использования инструмента n8n, а также затрону возможности использования больших языковых моделей (LLM), установленных локально с помощью Ollama для создания AI-агентов в n8n. Почему n8n

продолжить чтение

AI-суперапп – главный тренд 2026 по версии Forbes. Что мы видим из GPTunneL с позиции 2 млн пользователей

В декабре я рассказал на Хабре, как GPTunneL вырос от прототипа до 1,5 млн пользователей. С тех пор нас стало 2 млн. Подумал – пора рассказать, что мы делаем сейчас и куда идём. Хабр для этого хорошее место.Если коротко: строим и обучаем собственную модель GROM, развиваем GraphRAG, Creative Lab, vibe-coding, работаем над оркестрацией 100+ моделей через единый интерфейс. Под всё это – ML-команда, начинаем строить инфраструктуру под претрейн, прямые партнёрства с MiniMax, ByteDance, Alibaba, Сбером и рядом других поставщиков моделей – как китайских, так и западных.

продолжить чтение

Антиспам на нейронках: Gemini Flash в 1000 раз дешевле чем GigaChat

Сравнение LLM для антиспама

продолжить чтение

Попросил нейросети ChatGPT, DeepSeek и GigaChat собрать игровой ПК за 100 000 рублей. Кто справился лучше?

Три нейросети, один бюджет, ноль гарантий))

продолжить чтение

Kimi K2.5 наступает на пятки GPT-5.4. И работает из России без VPN

Бенчмарков сейчас – как нейросетей: каждую неделю новый. GPQA Diamond тестирует PhD-знания. Lexometrica проверяет фактическую точность. LLM Persuasion Benchmark – способность убеждать в дебатах. Chatbot Arena – предпочтения живых людей. Резонный вопрос: зачем ещё один?

продолжить чтение

GigaChat 3 Ultra от Сбера, OpenAI закрыла Sora, ARC-AGI-3 сломал все модели, ИИ-агенты взломали корпоративные системы

продолжить чтение

Россия — третий полюс мирового AI. Агентов запускаем на Raspberry Pi

a16z - один из крупнейших венчурных фондов планеты - выпустил свой ежегодный рейтинг Top 100 AI Apps. И впервые в истории зафиксировал Россию как отдельный полюс на глобальной AI-карте. Три полюса: Запад (ChatGPT, Claude, Gemini), Китай (DeepSeek, Doubao, Kimi), Россия (Алиса, GigaChat).Яндекс Браузер с Алисой - 71 миллион активных пользователей в месяц, топ-10 мировых мобильных AI-приложений. GigaChat от Сбера дебютировал в веб-рейтинге на 48-й позиции.Я прочитал это и на секунду обрадовался. А потом полез в цифры.«Санкции создали вакуум - локальные продукты заполнили»

продолжить чтение

GigaChat-3.1: Большое обновление больших моделей

Салют, хабр!В ноябре мы выложили в open source preview-версии GigaChat-3-Ultra (702B MoE) и GigaChat-3-Lightning (10B MoE). С тех пор мы провели большую работу над нашими моделями, и сегодня выпускаем обновлённые GigaChat-3.1-Ultra и GigaChat-3.1-Lightning. По нашим замерам, Ultra обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning, а Lightning на аренах с судьёй GPT-4.1 играет на уровне GPT-4o — при 1,8 млрд активных параметров. Модели, как и раньше, лежат на HuggingFace и GitVerse под MIT.

продолжить чтение

123456...9