ml. - страница 34

ml.

Есть ли у AMD перспективы в AI-ML-DL. Часть 2

Привет, Хабр! Это снова Ефим Головин, все еще старший MLOps-инженер в Selectel. В прошлой статье в попытках оценить перспективы AMD в ML мы внезапно погрузились в дебри документации NVIDIA. А теперь пора взглянуть на то, что происходит, собственно, у AMD. Забегая вперед, могу сказать, что во многом «красные» оперируют очень похожими терминами. Это вполне понятно и логично, поскольку и NVIDIA их не из воздуха взяли. Все это так или иначе корнями уходит в идеи, появившиеся и описанные задолго до появления терминов «CUDA», «SM», архитектуры Tesla и т. д.

продолжить чтение

ИИ и проблемы его безопасности

Привет, Хабр! Сегодня поговорим о крайне интересной теме — об искусственном интеллекте, а точнее, о его проблемах и безопасности. Искусственный интеллект

продолжить чтение

Поддержка RUTUBE 2.0: как мы научили бота не ломаться на сложных вопросах

Как у нас в RUTUBE ИИ и служба клиентского сервиса работают сообща, вместе справляются с ростом сервиса и мгновенно адаптируются к изменениям — рассказываем в этой статье. Делимся рецептом RAG-системы, которая за первые три месяца эксплуатации уже отвечает почти на 70% запросов пользователей и никогда не врёт про «космических зайцев». 

продолжить чтение

NEAT. Основы

ВведениеСегодня "теорию" NEAT, который появился в далёком 2004-м году, но при этом остается мейнстримом среди нейроэволюционных алгоритмов. Мы разберём классический вариант, так как это основа и все остальные варианты(CoDeepNEAT, HyperNEAT и т.д.) будут намного сложнее в имплементации, то есть шанс применить за разумное время обычному человеку очень мал и понять их без изначального варианта представляется почти невозможным.NEAT - алгоритм расширяющихся топологий, то есть может развивать не только веса, но и саму структуру

продолжить чтение

AI-агенты, RAG, вызовы vibe coding и новая эра кибербезопасности – 35+ докладов про genAI на Conversations 26-27 июня

Конференция по генеративному и разговорному AI Conversations отправляется в Санкт-Петербург! 2 дня, 4 трека, 40+ докладов, дискуссии, нетворкинг и вечеринка – всё это ждет участников Conversations 26 и 27 июня 2025 года.

продолжить чтение

To Docker or not to Docker? Вот в чём JupyterLab

Локальная работа в Jupyter-ноутбуках – неотъемлемая часть исследований и экспериментов нашего ML-отдела. Но из какой среды эти ноутбуки лучше запускать? Мы пользуемся двумя вариантами: запуском из Docker-контейнера и запуском в изолированном локальном Poetry-окружении.О чем и для кого эта статья

продолжить чтение

Scikit-learn теперь умеет в пайплайны: что изменилось и как работать с библиотекой в 2025 году

Scikit-learn — это одна из основных Python-библиотек для машинного обучения. Её подключают в прикладных проектах, AutoML-системах и учебных курсах — как базовый инструмент для работы с моделями. Даже если вы давно пишете на PyTorch или CatBoost, в задачах с табличными данными, скорее всего, всё ещё вызываете fit, predict, score — через sklearn.В 2025 году в библиотеку добавили несколько важных обновлений: доработали работу с пайплайнами, подключили полную поддержку pandas API, упростили контроль за экспериментами.

продолжить чтение

Гайд по Scikit-learn в 2025: собираем пайплайн, который не сломается

Scikit-learn — это одна из основных Python-библиотек для машинного обучения. Её подключают в прикладных проектах, AutoML-системах и учебных курсах — как базовый инструмент для работы с моделями. Даже если вы давно пишете на PyTorch или CatBoost, в задачах с табличными данными, скорее всего, всё ещё вызываете fit, predict, score — через sklearn.В 2025 году в библиотеку добавили несколько важных обновлений: доработали работу с пайплайнами, подключили полную поддержку pandas API, упростили контроль за экспериментами.

продолжить чтение

Топовые работы на ICLR 2025

Аналитический центр red_mad_robot продолжает обозревать топовые технологические конференции. В этот раз подготовили для вас инсайты с прошедшей в Сингапуре International Conference on Learning Representations (ICLR), посвящённой искусственному интеллекту и машинному обучению. На ICLR 2025 из более 3 тыс. работ наивысшие оценки получили 36 статей, из которых три были отмечены как «outstanding papers». Разберём выдающиеся работы этого года, а также достойные упоминания и получившие высокие оценки. Выдающиеся работыSafety Alignment Should be Made More Than Just a Few Tokens Deep

продолжить чтение

Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка

В этой статье мы расскажем о нашей новой модели FRIDA, которая сейчас (20.05.2025) занимает первое место в русскоязычном бенчмарке MTEB (ссылка на таблицу лидеров).Ранее мы уже

продолжить чтение

Rambler's Top100