Обновление «Алисы»: поддержка английского языка, работа с файлами, рассуждения и Live-режим
«Яндекс» представила обновление нейросетевого ассистента «Алисы». Компания добавила поддержку английского языка, рассуждения, поиск, возможность работать с файлами и Live-режим. Обновления показали 15 апреля 2025 года в рамках презентации умных устройств «Яндекса».
Как мы собираем SWE-bench на других языках
Современная разработка ПО — это плавильный котел языков: Java, C#, JS/TS, Go, Kotlin… список можно продолжать. Но когда дело доходит до оценки ИИ-агентов, способных помогать в написании и исправлении кода, мы часто упираемся в ограничения. Популярный бенчмарк SWE-bench, например, долгое время поддерживал только Python. Чтобы преодолеть разрыв между реальностью разработки и возможностями оценки ИИ, наша команда в Doubletapp
ИИ против болезней: как машинное обучение меняет медицину
Здравоохранение переживает беспрецедентную трансформацию. За последние шесть лет глобальные расходы на медицину выросли
Три икса: новый уровень работы с большими свертками в PyTorch для обучения моделей
Привет, Хабр! Продолжим разговор про свертки в ML-обучении на C++. Мы уже обсудили, какие есть подходы к реализации сверток, — ссылку на первую часть ищите в конце статьи. Теперь поговорим, как в одном моем проекте нужно было расширить функциональность PyTorch для работы со свертками размерностью больше трех, а потом использовать их в обучении моделей. Сначала рассмотрим, какие ограничения на выбор алгоритма накладывает возможность обучения моделей, а затем изучим два подхода к реализации свертки и адаптируем их к нашей задаче. Откуда берутся большие ядра свертки
Всё как в жизни. Адаптация систем распознавания жестовых языков к реальным условиям
Всем привет! Ранее мы уже писали о том, как собрали самый большой и разнородный открытый датасет
ЦОДы, GPU, NVIDIA A16, охлаждение: о серьезных вещах простым языком
Добрый день, дорогой читатель. Меня зовут Селезнев Павел, я инженер второй линии поддержки в облачном провайдере Nubes. С каждой новой статьёй я расту в должности, поэтому пишу ещё одну :)Несколько месяцев назад нам с коллегой поставили задачу: провести сравнительные тесты, чтобы проверить, насколько сильно разогреется видеокарта под нагрузкой при использовании воздуха и диэлектрической жидкости.Об этих тестах я и расскажу в статье, которая должна пролить свет на жизнь GPU в ЦОДе.Предисловие
Apple будет анализировать данные на устройствах для улучшения обучения ИИ
Apple опубликовала статью, посвящённую новому подходу в обучении Apple Intelligence. Если ранее компания использовала синтетические данные для обучения ИИ, то теперь она начнёт применять аналитику от пользователей.
Apple улучшает модели ИИ без доступа к личным данным пользователей
Apple заявляет, что нашла способ улучшить свои модели искусственного интеллекта, не обучая их на данных пользователей и даже не копируя их с их iPhone и Mac. В сообщении в блоге, впервые опубликованном агентством Bloomberg, компания рассказала о своих планах по сравнению синтетического набора данных с образцами недавних электронных писем или сообщений пользователей, которые присоединились к программе Device Analytics.
Вайб-кодинг: практика, о которой почему-то не говорят
В феврале мир разработки перевернулся с выходом Sonnet 3.7. Потому что вдруг внезапно оказалось, что джуны уже не очень-то и нужны. И нейросетка нормально заменяет мидлов тоже. Я откидываюсь в кресле, беру наушники и смотрю, как работает LLM. Можно сразу несколько, работающих над разными частями проекта: Пример проекта с прикручиванием аналитики к инфраструктуре: Сначала в GPT 4.5 провёл продуктовые исследования и сформулировал требования. Попросил превратить это в архитектурный план. Отревьюил, поправил тупые ошибки. Затем этот план (как метапромпт) скормил Sonnet в VS Code через плагин Cline. Попросил сначала создать общую структуру, шаблонные имплементации, документацию, спецификации API (protobuf для gRPC, REST API). Архитектурно сразу заложил микросервисы. Sonnet для каждого сервиса подобрал и обосновал оптимальную базу данных (где-то Postgres, где-то ClickHouse и т.д.). Сгенерировал SDK для взаимодействия, примеры использования. Сразу заложил observability: централизованные логи, метрики Prometheus, трейсинг Jaeger/Tempo, дашборды для Grafana. Потом итерационно генерировал код: сначала тесты (End-to-end, BDD), потом имплементацию под эти тесты. Написал манифесты для Kubernetes и Docker Compose для локального запуска. Сгенерировал даже скрипты для тестов REST API через curl и gRPC через gRPCurl. И всё. А теперь практика — что делать с тем, что современные нейросети учились преимущественно на говнокоде и как быть с джунами.

