Машинное обучение. - страница 254

CTO Oracle предложил обучить нейросетевого «большого брата» на данных граждан, включая их ДНК

На Всемирном правительственном саммите (World Governments Summit, WGS) технический директор компании Oracle Ларри Эллисон предложил руководителям стран обучать специальные нейросети на всех национальных данных, к которым только можно получить доступ. Он считает, что это поможет управлять страной, снизить преступность, повысить урожайность и лечить граждан.

продолжить чтение

Как устроены алгоритмы онлайн-кинотеатра. Разбираем на примере

Вы приходите домой и включаете любимый стриминг. Лента сразу же выдаёт вам несколько фильмов и сериалов, которые… действительно хочется смотреть. Сегодня разберём, как именно рождается эта магия вне Хогвартса, и что сидит под капотом рекомендательного движка онлайн-кинотеатра.

продолжить чтение

Anthropic готовит новую гибридную модель Claude, превосходящую o3-mini-high в кодинге

Как сообщает The Information, Anthropic планирует представить свою следующую крупную модель, которая сочетает традиционные языковые возможности с продвинутыми функциями логического анализа.

продолжить чтение

ByteDance представила ИИ-модель для генерации видео Goku. Наступает эра фейковых блогеров

ByteDance представила ИИ-модель для генерации видео Goku. Наступает эра фейковых блогеровСогласитесь ли вы со мной, если я скажу, что наступает эра фейковых блогеров?По правде говоря, она уже наступила.

продолжить чтение

Как научить модель рассуждать, не переобучая её, меньше чем за 10$

ВведениеЭто статья обобщение моего исследования передачи знаний от большой модели с замороженными весами в малую модель, которую мы будем обучать через расширенный механизм кросс внимания или проще говоря через LLM модули. Оригинальное исследование доступно по ссылке: arxiv.org/abs/2502.08213 . Репозиторий с кодом и весами доступен на Hugging Face: LLM модули.

продолжить чтение

Исследование AI выявило ключевые факторы, лежащие в основе долгосрочных способностей LLM к рассуждениям

Систематическое исследование раскрывает методы, с помощью которых генерируются длинные цепочки мыслей моделей рассуждений. Результаты дают практические советы по оптимизации стратегий обучения. Команда IN.AI вместе с исследователями из Университета Цинхуа и Университета Карнеги-Меллона составила карту того, как модели AI развивают свою способность работать с длинными цепочками мыслей. Их систематическое исследование использовало контролируемую тонкую настройку (SFT) и обучение с подкреплением (RL) для выявления ключевых факторов, лежащих в основе этой способности.

продолжить чтение

В JetBrains AI Assistant добавили поддержку локальных моделей через LM Studio

JetBrains сообщила разработчикам, что нейросетевой помощник AI Assistant теперь поддерживает интеграцию локальных языковых моделей через LM Studio. Помимо этого компания добавила новые нейросети от OpenAI и Anthropic.В ноябре 2024 года JetBrains добавили возможность подключать к AI Assistant локальные языковые модели с помощью Ollama. Это даёт большое преимущество для пользователей, которым важна приватность, но не всем может быть удобно пользоваться Ollama. Теперь локальные модели можно подключать и через LM Studio.

продолжить чтение

Исследование: четыре самых популярных чат-бота с ИИ допускают много ошибок при подготовке сводок новостей

Издание BBC обнаружило

продолжить чтение

Reddit работает над нейросетевым поиском, который поможет пользователям находить ответы на сложные вопросы

Журналисты TechCrunch сообщили, что Reddit работает над функцией ИИ-поиска, которая поможет пользователям быстрее находить ответы на сложные вопросы. Нейросеть обучили на массиве данных, которые площадка накопила за 20 лет работы. 

продолжить чтение

Обучить модель RoBERTa расстановке запятых на балконе для продакшена

RoBERTa — улучшенная версия модели BERT, разработанная Facebook AI. Она показывает отличные результаты в задачах обработки естественного языка, таких как классификация текстов и генерация ответов.

продолжить чтение

Rambler's Top100