Добавим приставку нейро: взгляд на интеграцию LLM в продукт со стороны фронтенда
Привет, это Андрей Мелихов, ведущий разработчик интерфейсов в Yandex Cloud. Я работаю в команде DataLens
Минцифры: ИИ в России должен работать с ограничениями
Надёжный товарищ цензурирует ИИИскусственный интеллект в России необходимо подвергнуть цензуре, ограничивающей «на входе и на выходе» определённые запросы и вопросы от пользователей, заявил замглавы Минцифры Александр Шойтов.
Как ПСБ внедряет ИИ: от чат-ботов и RAG до мультиагентных систем
Внутри банка мы обучаем сотрудников промпт-инжинирингу и работе с нейросетями. Студенты в одной группе стали спрашивать: «А зачем мы всё это изучаем? В ПСБ же ничего нет…» Это был знак свыше. Да, мы из тех компаний, которые к LLM относятся крайне осторожно и не стремятся попробовать всё в первых рядах. Но в некоторых направлениях мы как раз пионеры. В частности, в работе с малым и средним бизнесом. Пришло время рассказать об этом побольше.
Посчитал, сколько токенов Claude тратит на «Конечно!» и «Отлично!». 11% счёта
Открыл вчера дашборд по потреблению токенов — и завис.Смотрю на график и понимаю — что-то не сходится. Задач у ассистента за месяц было плюс-минус столько же, что и в прошлом. А токенов на выходе — больше процентов на десять. Я было решил, что это очередной клиент раскочегарился, полез в разбивку по проектам — нет, у всех понемногу.Ну.Полез читать сами ответы модели. И первое, что бросилось в глаза — почти каждый начинается с «Конечно!», «Отличный вопрос!», «С радостью помогу!». А дальше идёт ещё полтора-два предложения про то, как модель собирается ответить. И только потом — собственно ответ.
Как мы собрали русскоязычный датасет олимпиадной математики (и зачем это нужно AI)
Математические исследования всё чаще используют методы ИИ для анализа сложных задач, генерации решений и предоставления персонализированного обучения. Однако эффективность таких моделей напрямую зависит от качества и структуры данных, на которых они обучаются. Несмотря на обилие математических текстов в интернете, существует заметный дефицит крупных, размеченных и многоязычных датасетов, специально ориентированных на олимпиадную математику. В частности, для русскоязычных моделей остро не хватает материалов, сочетающих в себе авторитетность источника, сложность содержания и лингвистическое разнообразие.
Инвариантное проектирование: как балансировать между гибкостью и ограничениями ИИ-агентов
При создании ИИ-агентов разработчики часто сталкиваются с проблемой контроля. Если дать языковой модели полную свободу действий, система становится непредсказуемой и склонной к ошибкам. Если же ограничить её слишком жестко, агент теряет свои преимущества и превращается в обычный скрипт.
Microsoft включила Edge на всех компьютерах без спроса, и пользователи впали в ярость
В немецком языке есть слово, которое означает стыд, который испытываешь за кого-то другого: Fremdschämen. И прямо сейчас я испытываю именно это — за Microsoft.
Как мы провели лоботомию 744-миллиардной нейросети GLM-5.1, чтобы запустить её на 16 ГБ VRAM
Современный мир Open-Source AI несправедлив. Когда ZhipuAI выкатили свою новую архитектуру GLM-5.1, в её паспорте значилась цифра, от которой у владельцев домашних ПК темнеет в глазах — 744 миллиарда параметров. Чтобы просто поднять эту MoE-махину (Mixture of Experts) в оперативную память, нужна ферма топовых ускорителей за миллионы рублей.У нас не было фермы. У нас была бесплатная виртуальная машина на Kaggle с одной старушкой NVIDIA T4 на 16 ГБ VRAM. И у нас была концепция экстремального MLOps под кодовым названием «Russian Winter 26».

