Машинное обучение. - страница 179

ChatGPT уже настолько загрязнил Интернет, что это тормозит будущее развитие ИИ

Стремительный рост ChatGPT и целая плеяда последовавших генеративных моделей конкурентов, уже загрязнили интернет таким количеством ненужного хлама, что это тормозит развитие будущих моделей искусственного интеллекта, утверждает издание The Register.

продолжить чтение

Исследование способности языковых моделей к логическим рассуждениям — тест RELIC

Исследователи из Нью-Йоркского университета представили RELIC (Recognition of Languages In-Context) — новый тест, разработанный для проверки того, насколько хорошо большие языковые модели могут понимать и выполнять сложные многоэтапные инструкции. Команда получила результаты, аналогичные тем, что были представлены в недавней статье Apple, но отметила, что есть ещё над чем поработать.

продолжить чтение

Что будет, если пригласить на свидание OCR и GPT?

Привет, Хабр! Снова на связи Кирилл Пронин, разработчик PIX RPA из PIX Robotics, со мной Александр Сулейкин, Founder DUC Technologies

продолжить чтение

AI Security с французским привкусом или разбор Securing Artificial Intelligence от ETSI. Часть 1

продолжить чтение

Когда O(n) мешает отбирать резюме в Росатоме

Главная проблема поиска сотрудников — предвзятость. Порой кажется, что наше резюме подходит под свою роль на 100 %, а рекрутер отклоняет его. Проблема с противоположной стороны баррикад: рекрутер должен отсмотреть по 200, 300 и более резюме в день. По разным данным, на каждое уходит всего лишь 6–10 секунд. А что если можно решить эти две проблемы с помощью ML? Сделать модель, которая исключит любой байес и поможет рекрутеру объективно отбирать подходящих кандидатов (где «подходящесть» обусловлена красивой математикой!). Мы это сделали. Оказалось, что если вы хотите добиться непредвзятости, то вам придётся внести в систему предвзятость. Оксюморон в статистике! Что мы увидели: Женатые и замужние — в топе: пока вы не уходите глубоко в анализ, этот быстрый фактор повышает ранг. Чем точнее ваша модель, тем меньше его вес. Английский — плохо: знание английского почему-то работало как антипаттерн, снижая релевантность. ОГУРЕЦ: кто-то зачем-то написал это слово в резюме. Оно попало в словарь модели и получило большой вес. Иксель — люди пишут Excel как угодно, и само слово в правильном написании оказалось снижающим оценку. К резюме может быть приложено много мусора. Самый эпичный пример: авиабилет Москва — Челябинск вместо резюме. Но давайте начну с начала.

продолжить чтение

Учёные «Сбера» и НИУ ВШЭ научили искусственный интеллект точнее распознавать человеческие эмоции

Специалисты из Центра Практического Искусственного Интеллекта «Сбербанка» и ВШЭ представили систему для идентификации эмоций, которая анализирует мимику, голос и речь одновременно. Это позволяет точнее определять эмоциональное состояние по сравнению с инструментами, которые анализируют только мимику. 

продолжить чтение

Разбираемся с суффиксами квантования LLM: что на самом деле значат Q4_K_M, Q6_K и Q8_0

Привет!

продолжить чтение

Reuters: Google планирует разорвать отношения со Scale AI

Корпорация Google планирует разорвать отношения с компанией в сфере искусственного интеллекта Scale AI, пишет Reuters со ссылкой на пять источников. Собеседники информационного агентства объяснили решение Google приобретением 49% акций стартапа корпорацией Meta*.

продолжить чтение

Тест CRMArena-Pro показывает, что ИИ-агенты испытывают трудности в реальных бизнес-задачах

Новый тест Salesforce CRMArena-Pro выявляет серьёзные проблемы, с которыми сталкиваются ИИ-агенты в бизнес-контексте. Даже у таких топовых моделей, как Gemini 2.5 Pro, успешный ответ при однократном обращении достигается лишь в 58% случаев. При более длительном диалоге производительность падает до 35%.

продолжить чтение

Rednote выпускает свою первую языковую модель с открытым исходным кодом и архитектурой Mixture-of-Experts

Компания Rednote, занимающаяся социальными сетями, выпустила свою первую большую языковую модель с открытым исходным кодом. Система Mixture-of-Experts (MoE), получившая название dots.llm1, предназначена для того, чтобы соответствовать производительности конкурирующих моделей при значительно меньшей стоимости.

продолжить чтение

Rambler's Top100