Машинное обучение. - страница 44

Почему никто не ожидал, что механизм «предсказать следующее слово» не должен был оказаться так успешен (но оказался)

Большие языковые модели по-прежнему просто предсказывают следующее слово.

продолжить чтение

Свой ИИ без облаков: практический гайд по llama.cpp + Qwen

продолжить чтение

Google выпустила Gemma 4 с открытой лицензией Apache 2.0

Google выпускает Gemma 4, свою самую функциональную линейку устройств с открытой архитектурой. Четыре новые модели работают на самых разных устройствах, от смартфонов до рабочих станций, и впервые поставляются под полностью открытой лицензией Apache 2.0.

продолжить чтение

LLM — поиск товаров

Всем привет! В данной статье хочу поделится результатам R&D о применении  LLM и графов в поиске товаров по текстовому запросу юзера. Данная идея появилась при разработке Retrivier модуля RAG - системы, осуществлявшей поиск по документам. Были высокие требования к качеству ретривера, при этом латенси в 10-20 секунд являлось приемлемым, что позволило применять вызов нескольких тяжелых модулей. Стало интересно, применима ли получившаяся архитектура для поиска не только документов, но и товаров.Цели стоящие перед алгоритмом поиска.

продолжить чтение

В Apple нашли способ быстро и эффективно строить 3D-сцены с помощью ИИ

Apple разработали технологию

продолжить чтение

Достаточно подробно изучаем, что происходит внутри Feed-Forward Neural Networks, и реализуем в коде

Нейронные сети сегодня уже не какая-то магия из научных статей. Они стоят за рекомендациями в сервисах, распознаванием изображений и, конечно, за LLM-моделями, которыми мы пользуемся каждый день. Но знакомство с ними у многих происходит через готовые библиотеки такие, как PyTorch или TensorFlow: написал пару строк кода — модель обучилась — всё работает. А что именно произошло внутри обычно остаётся загадкой.

продолжить чтение

Синтетика как топливо: почему self-training работает и где начинается model collapse

продолжить чтение

Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.Введение: Кремниевый голод и санкцииКогда у тебя нет кластера A100, а есть только бесплатные T4 от Google, каждый байт становится полем боя. Мы живем в эпоху, когда модели растут быстрее, чем наши возможности их качать. Но математику не заблокируешь. По заветам нашего «Ghetto AI Manifesto», мы будем использовать «палки, желуди и сырой код», чтобы сделать топовый ИИ доступным каждому.

продолжить чтение

Список литературы тоже умеет галлюцинировать: как я делаю систему проверки научных источников

продолжить чтение

Как внедрить нейросети в свою жизнь? Топ кейсов по работе с ИИ

Представьте себе старый телефон, в который пытаются воткнуть новую зарядку. Вроде бы всё работает, но кажется, что мир вокруг уже перешёл на USB-C, а у вас до сих пор кнопочный.

продолжить чтение