перевод. - страница 3

ML Q & AI. Глава 6. Уменьшение переобучения при помощи настройки моделей

← Предыдущая глава |Допустим, мы обучаем классификатор при помощи обучения с учителем и уже применили к датасету различные методы для уменьшения переобучения. Как можно улучшить модель или цикл обучения, чтобы добиться еще более заметного эффекта?Наиболее эффективные методы борьбы с переобучением включают в себя различные техники регуляризации, такие как

продолжить чтение

Стирая языковые границы для NLP-датасетов

Всем привет. В этом посте расскажем, как мы тестировали БЯМ для переноса англоязычных датасетов на русский. «Мы» — это ваш покорный слуга и ребята из ФИЦ ИУ РАН. Пост по факту перевод нашей научной статьи, которая была опубликована еще в апреле, но вот руки до поста дошли только сейчас.

продолжить чтение

ML Q & AI. Глава 5. Уменьшение переобучения при помощи данных

← Предыдущая глава |Предположим, что мы обучаем классификатор при помощи обучения с учителем и замечаем, что он страдает от переобучения. Какие существуют основные подходы для уменьшения переобучения путем модификации или дополнения данных?Переобучение

продолжить чтение

Qwen3-MT — Alibaba выпускает еще одну модель для машинного перевода

Это обновление основано на мощной модели Qwen3, использующей триллионы многоязычных токенов и токенов для перевода, что позволяет значительно улучшить многоязычное понимание и возможности перевода модели. Благодаря интеграции методов обучения с подкреплением модель значительно повышает точность перевода и беглость речи.

продолжить чтение

ML Q & AI. Глава 4. Гипотеза о лотерейном билете

← Предыдущая глава |О чем говорит гипотеза о лотерейном билете, и чем она полезна на практике, если оказывается верной?Гипотеза о лотерейном билете — это идея, которая появилась в 2018 году в контексте обучения нейронных сетей. Она утверждает, что в случайно инициализированной нейронной сети существует подсеть (или «выигрышный билет»), которая, если ее обучить независимо, сможет достичь такой же точности на тестовом датасете, как и полная сеть после такого же количества шагов обучения. Авторы гипотезы — Джонатан Франкл и Майкл Карбин.

продолжить чтение

Перевод текста с помощью нейросетей и сервисов

Доброго времени суток, «Хабр»!Сегодня мы рассмотрим искусственный интеллект в роли переводчика. Наша цель — оценить, насколько хорошо нейросети справляются с переводом, и подвести небольшой итог: какая модель покажет лучший результат.Приступим, расставим буквы в строчку и отправим алгоритмы в бой.

продолжить чтение

ML Q & AI. Глава 3. Few-Shot Learning

Что такое few-shot learning (обучение, FSL)? Чем оно отличается от традиционной процедуры обучения с учителем?

продолжить чтение

Language Dove: разбираем китайскую и не только грамоту

Я довольно давно живу в Армении и изучаю армянский язык для получения гражданства (“вы должны уметь читать любой документ” - сказали мне в миграционном центре). Армянский язык очень сложен, и у меня возникла идея написать приложение для иммерсивного (dove - нырнул, погрузился) чтения на иностранном языке с пословным контекстуальным переводом, которое способно работать с любыми языками, даже с самыми редкими и сложными.Сегодня я хочу вам рассказать о том, что у меня получилось - о проекте Language Dove, над которым я работаю уже полгода.Описание приложения

продолжить чтение

ML Q & AI. Глава 2. Self-Supervised Learning

Предыдущая главаЧто такое self-supervised learning (обучение) (SSL), чем оно полезно и какие существуют подходы к его реализации?Self-supervised обучение - это процедура предварительного обучения, которая позволяет нейронным сетям использовать большие объемы неразмеченных данных в

продолжить чтение

Собираем комплекс для качественного офлайн-перевода текстов, работающий на самом обычном игровом компьютере

продолжить чтение

Rambler's Top100