Про технологии: Нейросети: +1 в команде, часть 1
Авторы статьи: Михаил Кургузов, Владислава ГузаКоротко о насПривет, Хабр! Мы — сотрудники команды локализации и переводов в структуре подразделения, которое оказывает услуги по внедрению программных продуктов. Помогаем внедрять информационные системы и сервисы: осуществляем их локализацию, а также предоставляем обучение и поддержку на языке пользователя.Цель статьиВ этой статье мы хотим рассказать вам о большом проекте по подготовке и локализации обучающих материалов для открытия розничных магазинов Спортмастер в Узбекистане.
Sora 2 испытывает проблемы с фильтрацией контента
Новая видеомодель Sora 2, представленная OpenAI всего неделю назад, уже столкнулась с первыми проблемами. Как сообщает 404 Media, пользователи обнаружили сбои в работе guardrails (систем, отвечающих за фильтрацию и блокировку контента).
OpenAI купила AI-советника по инвестициям Roi
OpenAI приобрела Roi, приложение с искусственным интеллектом, которое анализирует инвестиционные портфели пользователей и подсказывает, куда стоит вложить деньги.
Безопасность — это не отсутствие структуры, а наличие правильной структуры: топология как новый язык науки
"Геометрия — это искусство правильно рассуждать на incorrectly drawn figures" — Анри Пуанкаре "Криптография — это искусство обеспечения безопасности через правильную топологию" — современная формулировкаВведениеМы привыкли думать о безопасности как о чем-то случайном: "чем больше случайности, тем безопаснее". Но что если это заблуждение? Что если настоящая безопасность — не в отсутствии структуры, а в наличии правильной структуры?
Как работает Context Engineering в Claude и других агентах
Команда AI for Devs подготовила перевод статьи об инженерии контекста — новом ключевом подходе в построении AI-агентов. Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом. Уплотнение, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.Контекст — критически важный, но ограниченный ресурс для AI-агентов. В этой статье мы разбираем стратегии по грамотному отбору и управлению контекстом, который ими управляет.
Соревнование по машинному обучению — предскажите следующее состояние рынка
Привет, Хабр! Недавно мы запустили Wunder RNN Challenge — соревнование по машинному обучению, где нужно предсказывать следующее состояние рынка
Ling-1T: триллион параметров, 50 млрд активных — новая архитектура «эффективного мышления»
InclusionAI представила Ling-1T, первую модель на архитектуре Ling 2.0, оптимизированной для «efficient reasoning». Это триллион-параметрическая MoE-модель, в которой на каждый токен задействуется лишь ~5 % нейронов — и всё это при 128 K контексте и FP8-обучении.Что известно о модели:Обучена на 20 трлн токенов, из них 40 % — задачи с рассуждениями.Поддерживает контекст до 128 K токенов.Использует новый подход Evo-CoT (Evolutionary Chain-of-Thought) для «поэтапного мышления».В кодовых бенчмарках (mbpp, LiveCodeBench) — уверенно обгоняет GPT-5 и DeepSeek-V3.
Jamba Reasoning 3B: новая компактная ИИ-модель от AI21, работающая прямо на устройствах
Новый участник волны компактных моделей для корпоративного рынка представлен компанией AI21 Labs

