модели.

Больше моделей, больше возможностей: зачем мы вводим подписки в Kodacode

Больше полугода Kodacode был доступен всем желающим абсолютно бесплатно. За это время мы выпустили множество релизов для VS Code, сделали первого в России CLI-агента и, наконец, зарелизили Kodacode для IntelliJ-based IDE. Кроме наших собственных моделей, без ограничений*, были доступны и SOTA-модели как западные (Gemini), так и восточные (GLM, MiniMax, Qwen...).

продолжить чтение

Посимвольная нейросетевая модель для автоматической акцентуации русского языка

Привет Хабр, решил поделиться небольшой моделью для расстановки ударений, которую обучил на датасете, из более 400 книг художественной прозы с лицензией MIT. О чём речьРазрабатывая систему синтеза речи на базе Silero TTS, столкнулся с проблемой: минимальные ошибки в расстановке ударений всего два процента из 100 приводят к ошибкам в каждом из 5-6 предложений. Для аудиокниг это критично, так процесс "выслушивания" и правки книги на 10000 предожений потребует не менее 10 часов ручного времени.Сделал свою модель с фокусом на точность в хужожественных книгах. Получилось 99.7% на валидационном датасете. Упаковал в pip-пакет

продолжить чтение

Предиктивная аналитика в финтехе: модели, конвейер данных и риски внедрения

продолжить чтение

ML-аналитика, какие проблемы решает, инструменты, зачем выделять ресурсы

продолжить чтение

Как построить идеальную «песочницу» для ML-моделей

Привет, Хабр! Я Даниил Салман, техлид по контейнеризации. Эта статья написана по мотивам моего доклада для конференции DevOops. Разберёмся, как сделать такую ML-«песочницу», где Data Scientist пишет код, а всё остальное (установка драйверов, выделение ресурсов, деплой и тренировка модели, сбор метрик) уже настроено на бэкенде. Написали максимально просто и доступно, чтобы понять смог даже человек с минимальным погружением в тему. Идеи из этой статьи можно применять в любой инфраструктуре — важно лишь понимать основы: как работает k8s-кластер, Docker и python-фреймворки. Итак, поехали!

продолжить чтение

В llama.cpp добавили функцию для динамического переключения моделей без перезагрузки сервера

Разработчики llama.cpp добавили поддержку router mode — режима, с помощью которого можно динамически загружать, выгружать и переключать несколько моделей без перезагрузки сервера. В блоге Hugging Face отмечают, что чаще всего пользователи просили реализовать именно эту функцию.

продолжить чтение

OpenAI тестирует новую модель внедрения корпоративного ИИ вместе с Thrive Holdings

продолжить чтение

ИИ-ассистенты: как AI делит рынок разработки

Команда AI for Devs подготовила перевод статьи о том, как быстро растущие AI-ассистенты меняют саму природу разработки. Их код выглядит безупречно — но всё чаще решает не ту задачу, что стоит перед нами. Где проходит граница между ускорением и самообманом, и какую новую ответственность это накладывает на инженеров?В начале 1950-х Грейс Хоппер ввела термин «компилятор» и создала одну из первых его версий — систему A-0

продолжить чтение

Как LinkedIn масштабировал поиск людей на 1,3 млрд пользователей

продолжить чтение

Schema-Guided Reasoning: как научить языковые модели последовательно рассуждать

продолжить чтение

123
Rambler's Top100