Подвинься, LLaMA! Новая open‑source LLM от Tencent — Hunyuan‑A13B — уже доступна для самостоятельного хостинга
Tencent только что выпустила новую open‑source модель под названием Hunyuan‑A13B‑Instruct. Весы модели открыты (насчёт кода — пока неясно), и она может работать локально (если у вас есть GPU уровня NVIDIA DGX B200). Если вам интересно, как она себя показывает, и вы хотите попробовать её в деле — ниже инструкции, как можно её быстро развернуть на арендованной видеокарте за несколько минут.📎Перевод, оригинальная новость здесь.Что такое Hunyuan‑A13B?
300 сенсоров, AWS и ИИ: почему в «Формуле-1» теперь больше обгонов
Если в эти выходные вы смотрели Austrian GP или трейлер нового фильма «F1» — знайте: за кадром гонок разворачивается не менее захватывающая технологическая гонка.Под капотом F1: 300 сенсоров и 1,1 млн данных в секунду
Зоопарк версий питона в ИИ, какую версию лучше выбрать в 2025 для большинства задач?
Разработка в области искусственного интеллекта развивается стремительно. Каждый месяц появляются новые модели и фреймворки, и часто возникает вопрос: какую версию Python использовать для локальной разработки и экспериментов, чтобы обеспечить максимальную совместимость и избежать «ада зависимостей»? Но, можете не тратить время на чтение. СРАЗУ ВЫВОД: Рекомендуемая версия: Python 3.10.x.
Релиз Microsoft Edge 138
В конце июня 2025 года вышла стабильная версия браузера Microsoft Edge 138 для Windows 10/11, macOS и Linux. Последнее обновление содержит исправления ошибок, новые политики, патчи безопасности, а также улучшения боковой панели и ряд новых функций на базе искусственного интеллекта.
Исследование: ИИ-модели стали чаще советовать ничего не делать и говорить «нет»
Исследователи Университетского колледжа Лондона выяснили, что модели искусственного интеллекта при ответах на вопросы всё чаще советуют людям отказаться от каких-либо действий и говорить «нет» в ситуациях, когда человек скорее всего бы помог или вмешался.
Как мы научили ИИ читать PDF и экономить сотни рабочих часов: полный кейс создания корпоративного ChatGPT
От проблемы до технической реализации — опыт создания ИИ‑ассистента для Росатома за 48 часов хакатона АтомикХак 2.0Часть 1: Бизнес‑кейс. Зачем это нужно?Проблема, которая съедает миллионыПредставьте: новый сотрудник крупной корпорации ищет ответ на рабочий вопрос. Он открывает внутренний портал, видит сотни PDF‑инструкций, тысячи записей в базе знаний службы поддержки. Час поиска, звонки коллегам, еще час изучения документов. В итоге — либо неточный ответ, либо решение отложить задачу.
Использование LLM в Access Management на примере OpenAM и Spring AI
ВведениеДанная статья является продолжением предыдущей статьи по применению LLM в системах управления доступом. В конце статьи мы пришли к выводу, что оптимальным использованием LLM будет проведение аудита конфигурации системы управления доступом.В статье мы развернем систему управления доступом, запросим у LLM проанализировать конфигурацию и вернуть рекомендации по ее улучшению.В качестве системы управления доступом мы будем использовать решение с открытым исходным кодом OpenAM
Что делает shuffle=True и как не сломать порядок
Привет, Хабр! Сегодня рассмотрим невинный на первый взгляд параметр shuffle=True в train_test_split.Под «перемешать» подразумевается применение псевдо-рандомного пермутационного алгоритма (обычно Fisher–Yates) к индексам выборки до того, как мы режем её на train/test. Цель — заставить train-и-test быть независимыми и одинаково распределёнными (i.i.d.). В scikit-learn эта логика зашита в параметр shuffle почти всех сплиттеров. В train_test_split он True по умолчанию, что прямо сказано в документации — «shuffle bool, default=True».train_test_split

