модели.

Предиктивная аналитика в финтехе: модели, конвейер данных и риски внедрения

продолжить чтение

ML-аналитика, какие проблемы решает, инструменты, зачем выделять ресурсы

продолжить чтение

Как построить идеальную «песочницу» для ML-моделей

Привет, Хабр! Я Даниил Салман, техлид по контейнеризации. Эта статья написана по мотивам моего доклада для конференции DevOops. Разберёмся, как сделать такую ML-«песочницу», где Data Scientist пишет код, а всё остальное (установка драйверов, выделение ресурсов, деплой и тренировка модели, сбор метрик) уже настроено на бэкенде. Написали максимально просто и доступно, чтобы понять смог даже человек с минимальным погружением в тему. Идеи из этой статьи можно применять в любой инфраструктуре — важно лишь понимать основы: как работает k8s-кластер, Docker и python-фреймворки. Итак, поехали!

продолжить чтение

В llama.cpp добавили функцию для динамического переключения моделей без перезагрузки сервера

Разработчики llama.cpp добавили поддержку router mode — режима, с помощью которого можно динамически загружать, выгружать и переключать несколько моделей без перезагрузки сервера. В блоге Hugging Face отмечают, что чаще всего пользователи просили реализовать именно эту функцию.

продолжить чтение

OpenAI тестирует новую модель внедрения корпоративного ИИ вместе с Thrive Holdings

продолжить чтение

ИИ-ассистенты: как AI делит рынок разработки

Команда AI for Devs подготовила перевод статьи о том, как быстро растущие AI-ассистенты меняют саму природу разработки. Их код выглядит безупречно — но всё чаще решает не ту задачу, что стоит перед нами. Где проходит граница между ускорением и самообманом, и какую новую ответственность это накладывает на инженеров?В начале 1950-х Грейс Хоппер ввела термин «компилятор» и создала одну из первых его версий — систему A-0

продолжить чтение

Как LinkedIn масштабировал поиск людей на 1,3 млрд пользователей

продолжить чтение

Schema-Guided Reasoning: как научить языковые модели последовательно рассуждать

продолжить чтение

Небольшое количество примеров может отравить LLM любого размера

Команда AI for Devs подготовила перевод исследования в котором учёные показали: чтобы встроить «бэкдор» в большую языковую модель, вовсе не нужно контролировать огромную долю обучающих данных — достаточно около 250 вредоносных документов. Этот результат переворачивает представления о масштабируемости атак через отравление данных и ставит новые вопросы к безопасности ИИ.

продолжить чтение

Обзоры препринтов научных статей в области астрофизики за сентябрь 2025 года

Выпуск 448Ежемесячный обзор научных статей в области астрофизики от профессора МГУ Сергея Попова. Выборка интересных публикаций в области астрономии, астрофизики и физики из библиотеки препринтов arxiv.org. Публикуется с разрешения автора и указанием ссылок на первоисточники.arxiv:2509.00951 

продолжить чтение

123
Rambler's Top100