Как мы освободили операторов от классификации текстов диалогов на 1000+ классов
Всем привет! Меня зовут Наумов Герман, я работаю в Лаборатории машинного обучения Альфа-Банка, и я расскажу, как мы автоматизировали внутренние процессы, упростили работу операторов чата с физическими лицами. Задача не особо простая и тюнингом гиперпараметров как на Kaggle не решается. Но решается.
Open Deep Research: инструмент для многоэтапных веб-исследований от Together AI
Компания Together AI представила Open Deep Research — инструмент с открытым исходным кодом, предназначенный для поиска ответов на сложные вопросы с помощью структурированных многоэтапных веб-исследований.
«Википедия» представила набор данных для обучения ИИ ради борьбы со скрейпингом
«Википедия» пытается решить проблему перегрузки своих серверов из-за агентов ИИ, которые занимаются веб-скрейпингом. Интернет-энциклопедия выпустила набор данных, специально оптимизированный для обучения моделей искусственного интеллекта.
Глава Минцифры: ИИ может заменить половину чиновников
Искусственный интеллект способен заменить половину чиновников, считает глава Минцифры РФ Максут Шадаев. При этом он уточнил, что человека, особенно врачей и учителей, нейросети все же не заменят. Это заявление Шадаев сделал в ходе профильного мероприятия First Russian Data Forum.«Человека, надеемся, он не заменит, особенно врачей и учителей. Считаю, что половину чиновников точно может заменить. Может, чуть больше», — пояснил Шадаев.В марте 2025 года научный руководитель Гидрометцентра РФ Роман Вильфанд рассказал
Руководство Google по промпт-инжинирингу. Часть 2: продвинутый промптинг и работа с кодом
От переводчикаПредставляю вашему вниманию перевод второй части статьи "Prompt Engineering" (Промпт-инжиниринг) авторства Lee Boonstra - Software Engineer Tech Lead, Office of the CTO в Google. Эта публикация продолжает цикл переводов, посвященных методам эффективного взаимодействия с большими языковыми моделями.В первой части
ChatGPT определяет местоположение по фотографиям, почему это вызывает беспокойство
Появилась новая тенденция, вызывающая некоторое беспокойство: люди используют ChatGPT, чтобы определить местоположение, изображённое на фотографиях.
xAI добавляет функцию ‘памяти’ в Grok
Компания Илона Маска по разработке искусственного интеллекта xAI постепенно доводит своего чат-бота Grok до уровня ведущих конкурентов, таких как ChatGPT и Gemini от Google.
Учёные из СПб ФИЦ РАН научили нейросеть находить кейлоггеры
Специалисты Санкт‑Петербургского федерального исследовательского центра (СПб ФИЦ) РАН создали нейросеть для поиска кейлоггеров. Разработка выявляет следы работы кейлоггеров в сетевом трафике.Система мониторинга на базе методов машинного обучения в реальном времени отслеживает сетевой трафик и сообщает о подозрительных действиях, которые могут указывать на активность вредоносного ПО.
Как обучить русскоязычную модель рассуждений — LRM?
Ранее на моем YouTube-канале уже были видео о моделях рассуждений — OpenAI o1/o3, DeepSeek R1. Эти модели обучены с помощью стратегии reinforcement learning находить решения для задач, требующих логических рассуждений. Способность строить цепочки рассуждений, ведущих к решению поставленной задачи, открывают возможность применения таких моделей в математике, программировании и других подобных направлениях.
Как готовить Triton: рецепты вашей собственной Inference-платформы
Привет, Хабр! Меня зовут Антон, я DevOps-инженер в команде Data/ML-продуктов Selectel. Если вам нужно запустить небольшой инференс одной ML-модели, можно взять команду бэкендеров, дать им эту модель, они обернут ее в эндпоинт — и готово. Достаточно короткого скрипта из нескольких строк на Python. Но что если нужно запускать несколько моделей, оптимизировать выполнение, работать с ансамблем моделей, задействовать CPU и GPU одновременно и т. д.? Все эти проблемы решает NVIDIA Triton Inference Server. Правда, он добавляет одну новую: разобраться с ним и его документацией — тот еще квест. В статье посмотрим, насколько сложной задачей может оказаться создание собственного инференса и какие аспекты нужно учитывать. Научимся запускать различные форматы моделей, посмотрим на основные фичи Inference-платформы Selectel, запустим несколько популярных LLM и моделей, а также познакомимся со способами оптимизации конфигурации и проектирования интерфейса для модели.

