ml.
Кого ИИ уже уволил, а кто только ждёт своей очереди? Как ИИ меняет рынок труда — разбор мифов и фактов
Нейросети («ИИ») больше не инструмент будущего — это активный участник рынка труда. От HR-отделов до бухгалтерии, от школ до юридических фирм — машины не только помогают, а кое-где заменяют. Эта статья — о том, какие профессии исчезают, а какие трансформируются, и что делать, чтобы остаться на плаву в эпоху алгоритмов.Здесь и далее мы будем использовать термин ИИ (искусственный интеллект) в качестве описания, в основном, нейронных сетей.
Как не переплатить за автоматизацию? Разбираем, когда стоит подключать ML
Часто автоматизация средствами ML ассоциируется с быстрым ростом эффективности бизнеса, но на практике оборачивается молниеносным увеличением затрат. Поэтому подход «Если делаешь что-то больше одного раза, автоматизируй это» выглядит слишком радикальным. Как понять, действительно ли вам нужны ML-технологии или же ваши задачи можно закрыть простыми скриптами и правилами? Чтобы разобраться в этом вопросе, мы в Selectel исследовали успешные кейсы автоматизации в финансовом секторе, телекоме и IT-инфраструктуре, опираясь на экспертизу специалистов из T-Банк, PIX Robotics и Netcracker. Подробности под катом!
Генерация видео: Обзор интересных подходов | Text-2-video | Part 1
Тут я расскажу про основные подходы в генерации видео, материал будет полезен ML/Computer vision разработчикам, чтобы держать руку на пульсе, и людям интересующимся нейросетями + AIПлан следующий:Методы адаптации T2I в T2V: AnimateDiff, Text2Video ZeroОбзор классических подходов: Stable Video Diffusion, CogVideoНовые модельки 2025: Wan2.1, HunyuanVideo, FramePackЭто первая часть из списка статей, тут будет только про T2I в T2VIntro
Vibe Coding и сравнительный анализ его инструментов
1. Введение и методологияVibe coding - это современный подход к разработке программного обеспечения, в основе которого лежит использование искусственного интеллекта для автоматизации процесса написания кода. Благодаря этому методу создавать приложения и различные программные решения могут не только профессиональные разработчики, но и люди без специальной технической подготовки. Всё, что требуется - описать свою идею на естественном языке, а система на основе ИИ преобразует её в работающий программный продукт.Вайб-кодинг - это не простой навык
fit() для новичков
Привет, Хабр! Эта статья для тех, кто только‑только погружается в машинное обучение и ещё не до конца понимает, что скрывается за интересным вызовом model.fit(). Вы, возможно, уже настраивали ноутбуки, пробовали разные датасеты и, может, даже словили пару неожиданных ошибок — и это нормально. Зачем копать глубже за fit()На старте может казаться, что достаточно написать:model = RandomForestClassifier(n_estimators=100) model.fit(X_train, y_train)— и всё заработает. Но стоит проекту вырасти, можно столкнуться с подвохами:Неожиданные NotFittedError при predict()Упавшая память на больших выборках
Распределённый инференс и шардирование LLM. Часть 3: настройка авторизации и интеграция с Open WebUI
Мы с вами подобрались к заключительной части статьи-инструкции об организации распределённого инференса и шардирования LLM в домашних условиях. Мы уже запустили модель Gemma 3 и протестировали API, самое время настроить авторизацию и удобный веб-интерфейс для взаимодействия с нашей моделью. Им станет бесплатный Open WebUI. В конце статьи попросим домашнюю LLM подвести итоги всей проделанной работы, а также поговорим о планах по развитию проекта.
Есть ли у AMD перспективы в AI-ML-DL. Часть 1
Привет, Хабр! Я Ефим Головин, старший MLOps-инженер в Selectel. Некоторое время назад мы в отделе Data/ML начали задаваться вопросом: а как там поживает AMD? Понятно, что у них масса дел, но нас интересовало, скорее, что у них в плане AI/DL/ML. С NVIDIA все плюс-минус ясно, это стандарт. А вот AMD — что-то неизвестное. Я вообще предполагал, что у «красных» хотя бы в плане терминологии и документации все должно быть плюс-минус аналогично тому, как оно есть у NVIDIA. Но решил убедиться в этом, поэтому отправился изучать документацию обеих компаний и попал в дивный мир хаоса, бардака и разброса в терминах. Не могу держать в себе, давайте разбираться вместе. Начнем, как ни странно, с поиска истины в документации NVIDIA.
MLечный путь 2025 — знания, опыт, коммьюнити. Как это было?
Привет, Хабр! 23 апреля мы провели в Петербурге митап для ML-специалистов. Спикеры обсудили запуск LLM в продакшен, оптимизацию GPU-инференса, а также Edge-решения для медицины и агросектора. Минимум теории — больше кейсов от Selectel, Cloud.ru, Celsus и Русагро. Как подобрать инфраструктуру под LLM? Как контейнеризировать GPU в многоарендных средах? Как запускать ML на комбайне или медицинском поезде без интернета? На эти вопросы ответили в четырех докладах на MLлечном пути. А еще мы организовали питч-сессию для стартапов. Пять проектов на стадии pre-MVP боролись за призовой фонд в 100 000 бонусов. Победителей выбирали сами зрители. В тексте рассказываем, как все было.
Распределённый инференс и шардирование LLM. Часть 2: скрипт vLLM, Ray Serve для вывода API и настройка KubeRay Cluster
Продолжаем разбираться с тем, как можно эффективно работать с большими языковыми моделями, используя доступное оборудование.В этой части мы перейдём к организации распределённого инференса с помощью vLLM и обеспечим доступ к нему через Ray Serve. А ещё выясним, как запустить модель Gemma 3 в Ray-кластере и как проверить работу нашего OpenAI-совместимого эндпойнта с JWT-аутентификацией.

