Машинное обучение. - страница 33

Добавим приставку нейро: взгляд на интеграцию LLM в продукт со стороны фронтенда

Привет, это Андрей Мелихов, ведущий разработчик интерфейсов в Yandex Cloud. Я работаю в команде DataLens

продолжить чтение

Минцифры: ИИ в России должен работать с ограничениями

Надёжный товарищ цензурирует ИИИскусственный интеллект в России необходимо подвергнуть цензуре, ограничивающей «на входе и на выходе» определённые запросы и вопросы от пользователей, заявил замглавы Минцифры Александр Шойтов.

продолжить чтение

Как ПСБ внедряет ИИ: от чат-ботов и RAG до мультиагентных систем

Внутри банка мы обучаем сотрудников промпт-инжинирингу и работе с нейросетями. Студенты в одной группе стали спрашивать: «А зачем мы всё это изучаем? В ПСБ же ничего нет…» Это был знак свыше. Да, мы из тех компаний, которые к LLM относятся крайне осторожно и не стремятся попробовать всё в первых рядах. Но в некоторых направлениях мы как раз пионеры. В частности, в работе с малым и средним бизнесом. Пришло время рассказать об этом побольше.

продолжить чтение

Посчитал, сколько токенов Claude тратит на «Конечно!» и «Отлично!». 11% счёта

Открыл вчера дашборд по потреблению токенов — и завис.Смотрю на график и понимаю — что-то не сходится. Задач у ассистента за месяц было плюс-минус столько же, что и в прошлом. А токенов на выходе — больше процентов на десять. Я было решил, что это очередной клиент раскочегарился, полез в разбивку по проектам — нет, у всех понемногу.Ну.Полез читать сами ответы модели. И первое, что бросилось в глаза — почти каждый начинается с «Конечно!», «Отличный вопрос!», «С радостью помогу!». А дальше идёт ещё полтора-два предложения про то, как модель собирается ответить. И только потом — собственно ответ.

продолжить чтение

Физика против Маска: почему Starship V3 может оказаться ещё одной катастрофой

продолжить чтение

Как мы собрали русскоязычный датасет олимпиадной математики (и зачем это нужно AI)

Математические исследования всё чаще используют методы ИИ для анализа сложных задач, генерации решений и предоставления персонализированного обучения. Однако эффективность таких моделей напрямую зависит от качества и структуры данных, на которых они обучаются. Несмотря на обилие математических текстов в интернете, существует заметный дефицит крупных, размеченных и многоязычных датасетов, специально ориентированных на олимпиадную математику. В частности, для русскоязычных моделей остро не хватает материалов, сочетающих в себе авторитетность источника, сложность содержания и лингвистическое разнообразие.

продолжить чтение

Марк Цукерберг создаёт себе ИИ-двойника, который будет общаться с подчинёнными за него

продолжить чтение

Инвариантное проектирование: как балансировать между гибкостью и ограничениями ИИ-агентов

При создании ИИ-агентов разработчики часто сталкиваются с проблемой контроля. Если дать языковой модели полную свободу действий, система становится непредсказуемой и склонной к ошибкам. Если же ограничить её слишком жестко, агент теряет свои преимущества и превращается в обычный скрипт.

продолжить чтение

Microsoft включила Edge на всех компьютерах без спроса, и пользователи впали в ярость

В немецком языке есть слово, которое означает стыд, который испытываешь за кого-то другого: Fremdschämen. И прямо сейчас я испытываю именно это — за Microsoft.

продолжить чтение

Как мы провели лоботомию 744-миллиардной нейросети GLM-5.1, чтобы запустить её на 16 ГБ VRAM

Современный мир Open-Source AI несправедлив. Когда ZhipuAI выкатили свою новую архитектуру GLM-5.1, в её паспорте значилась цифра, от которой у владельцев домашних ПК темнеет в глазах — 744 миллиарда параметров. Чтобы просто поднять эту MoE-махину (Mixture of Experts) в оперативную память, нужна ферма топовых ускорителей за миллионы рублей.У нас не было фермы. У нас была бесплатная виртуальная машина на Kaggle с одной старушкой NVIDIA T4 на 16 ГБ VRAM. И у нас была концепция экстремального MLOps под кодовым названием «Russian Winter 26».

продолжить чтение