ml. - страница 23

ml.

Что думают технические лидеры и инженеры о будущем с AI: репортаж с IT-конференции GoCloud Tech 2025

Всем привет! С вами Дима Юдин — технический лидер по развитию искусственного интеллекта, а сегодня еще и ведущий трека про AI&ML. Прямо сейчас проходит наша вторая технологическая конференция — GoCloud Tech 2025. Поделюсь live-контентом и атмосферой, фидбэком участников и их мыслями о том, что они думают о будущем с AI.

продолжить чтение

Смерть fine-tuning? Почему RAG и промпт-инженерия вытесняют дообучение моделей

Привет, Хабр! Я — Владимир Килязов, эксперт по машинному обучению в Cloud.ru. Последние несколько лет я активно помогаю бизнесу и технарям работать с LLM в своих задачах без космических бюджетов.Помните времена, когда для обучения языковой модели новым трюкам, ее обязательно «доводили» на специальных датасетах? Теперь есть и другие варианты. Вместо классического дообучения можно использовать RAG и промт-инженерию, и это будет быстрее и дешевле. Получается, fine-tuning больше не нужен? Про это и порассуждаем тут в статье.

продолжить чтение

Многозадачные и интеллектуальные. Как мы обучали колонки Sber понимать сразу несколько команд умного дома

Салют, Хабр!

продолжить чтение

Claude Code: лучшие практики агентного программирования

Иногда действительно лучше промолчать, чем писать что-то ради «галочки». На днях мы в команде вспомнили о методичке Anthropic по Claude Code и поняли —  добавить к ней практически нечего, конечно, кроме наших советов об использовании этого инструмента. Все подходы, которые появились у нас с помощью этой практики, теперь вошли в официальные гайды лидеров в области ИИ-агентов. В общем, если вы хотите разобраться в агентном программировании — не проходите мимо этого перевода с комментариями руководителя отдела Flutter-разработки Surf Марка Абраменко.

продолжить чтение

Литературный обзор на статью: StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators

StyleGAN-NADA (No Annotation Domain Adaptation) - метод, разработанный специалистами из Tel Aviv University и NVIDIA Research, позволяющий адаптировать генеративную модель (StyleGAN2) к новому домену без единого изображения, использующий только семантическую силу больших моделей, предварительно обученных контрастивным методом на тексте и изображениях (СLIP). На рисунке 1 представлены возможности метода StyleGAN-NADA.

продолжить чтение

Всё что нужно знать про torch.sparse

Разработчики PyTorch предоставили модуль torch.sparse для работы с разреженными тензорами, где большинство элементов – нули. Зачем это нужно? Представьте матрицу смежности графа, сильно обрезанную сеть или облако точек – хранить такие данные плотным массивом без надобности расточительно. Разрежённая структура сохраняет только ненулевые элементы и их индексы, что сильно экономит память и ускоряет вычисления. Например, матрица размером 10,000 на 10,000 с 100 000 ненулевых float-значений в разрежённом COO-формате займёт не 400 МБ, а около 2 МБ.Несмотря на перспективы,

продолжить чтение

Как аналитики Авито с помощью ML помогают людям выбирать хорошие авто с пробегом

Привет! Меня зовут Илья Комутков, я старший аналитик в Автотеке — сервисе по проверке истории автомобилей с пробегом. В статье расскажу, как мы улучшаем проверку машин и создаём алгоритм рекомендаций по дальнейшим действиям для покупателей. Текст будет интересен начинающим или middle-аналитикам, которые уже умеют работать с SQL, python, ML, но ещё не решали многоэтапные задачи, влияющие на бизнес, и ищут способы применить свои навыки в работе.

продолжить чтение

Библиотека OutboxML от Страхового Дома ВСК

Хабр, привет! Меня зовут Семён Семёнов, я руковожу Data Science и Machine Learning в Страховом Доме ВСК. В этой статье расскажу, как мы создали систему автоматического обучения и развёртывания моделей машинного обучения с открытым исходным кодом.

продолжить чтение

Как приручить LLM: подбор инфраструктуры для инференса. Часть 1

Привет, Хабр! Меня зовут Антон, и сейчас я активно занимаюсь вопросами инфраструктуры для ML и AI

продолжить чтение

ReLLaX: как научить большие языковые модели понимать долгосрочное поведение пользователей

Всем привет! Меня зовут Никита Горячев. Сейчас работаю в качестве Senior Machine Learning Engineer в WB Tech - занимаюсь исследованиями в рекомендациях и LLM. До этого работал в МТС и Сбере, где тоже занимался рекомендашками. Написал книгу про LLMOps и RAG, также сейчас пишу книгу про вывод Speech AI моделей в прод. Хочу поделиться разбором интересной статьи, которую нашел у коллег из Китая! 

продолжить чтение

1...10...212223242526...3040...46
Rambler's Top100