Машинное обучение. - страница 129

Про технологии: Нейросети: +1 в команде, часть 1

Авторы статьи:  Михаил Кургузов, Владислава ГузаКоротко о насПривет, Хабр! Мы — сотрудники команды локализации и переводов в структуре подразделения, которое оказывает услуги по внедрению программных продуктов. Помогаем внедрять информационные системы и сервисы: осуществляем их локализацию, а также предоставляем обучение и поддержку на языке пользователя.Цель статьиВ этой статье мы хотим рассказать вам о большом проекте по подготовке и локализации обучающих материалов для открытия розничных магазинов Спортмастер в Узбекистане.

продолжить чтение

Sora 2 испытывает проблемы с фильтрацией контента

Новая видеомодель Sora 2, представленная OpenAI всего неделю назад, уже столкнулась с первыми проблемами. Как сообщает 404 Media, пользователи обнаружили сбои в работе guardrails (систем, отвечающих за фильтрацию и блокировку контента).

продолжить чтение

Google готовит крупнейший редизайн Gemini

продолжить чтение

OpenAI купила AI-советника по инвестициям Roi

OpenAI приобрела Roi, приложение с искусственным интеллектом, которое анализирует инвестиционные портфели пользователей и подсказывает, куда стоит вложить деньги.

продолжить чтение

Безопасность — это не отсутствие структуры, а наличие правильной структуры: топология как новый язык науки

"Геометрия — это искусство правильно рассуждать на incorrectly drawn figures" — Анри Пуанкаре "Криптография — это искусство обеспечения безопасности через правильную топологию" — современная формулировкаВведениеМы привыкли думать о безопасности как о чем-то случайном: "чем больше случайности, тем безопаснее". Но что если это заблуждение? Что если настоящая безопасность — не в отсутствии структуры, а в наличии правильной структуры?

продолжить чтение

Как работает Context Engineering в Claude и других агентах

Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Уплотнение, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.Контекст — критически важный, но ограниченный ресурс для AI-агентов. В этой статье мы разбираем стратегии по грамотному отбору и управлению контекстом, который ими управляет.

продолжить чтение

Соревнование по машинному обучению — предскажите следующее состояние рынка

Привет, Хабр! Недавно мы запустили Wunder RNN Challenge — соревнование по машинному обучению, где нужно предсказывать следующее состояние рынка

продолжить чтение

Как ИИ-агенты учатся по видео на YouTube

продолжить чтение

Ling-1T: триллион параметров, 50 млрд активных — новая архитектура «эффективного мышления»

InclusionAI представила Ling-1T, первую модель на архитектуре Ling 2.0, оптимизированной для «efficient reasoning». Это триллион-параметрическая MoE-модель, в которой на каждый токен задействуется лишь ~5 % нейронов — и всё это при 128 K контексте и FP8-обучении.Что известно о модели:Обучена на 20 трлн токенов, из них 40 % — задачи с рассуждениями.Поддерживает контекст до 128 K токенов.Использует новый подход Evo-CoT (Evolutionary Chain-of-Thought) для «поэтапного мышления».В кодовых бенчмарках (mbpp, LiveCodeBench) — уверенно обгоняет GPT-5 и DeepSeek-V3.

продолжить чтение

Jamba Reasoning 3B: новая компактная ИИ-модель от AI21, работающая прямо на устройствах

Новый участник волны компактных моделей для корпоративного рынка представлен компанией AI21 Labs

продолжить чтение

Rambler's Top100