llm. - страница 133

llm.

Компания Lumina AI выпускает PrismRCL 2.6.0 с расширенными параметрами обучения LLM

Lumina AI, лидер в области решений для машинного обучения, оптимизированных для центральных процессоров, объявляет о выпуске PrismRCL 2.6.0, последней версии своего флагманского программного обеспечения, разработанного для повышения производительности и эффективности машинного обучения. В этом выпуске представлена долгожданная функция: параметр обучения LLM (большой языковой модели), которая ещё больше расширяет возможности RCL по созданию базовых моделей с беспрецедентной скоростью и экономичностью.

продолжить чтение

Четыре Radeon RX 7900, нейросеть и настольная игра

Языковые нейросетевые модели как только не тестировали: от решения олимпиадных задач до создания шедевров мировой литературы. У нас же родилась идея протестировать их на более прикладном уровне. А именно, сможет ли нейросеть играть по правилам в настольную игру, которая сложнее, чем крестики-нолики, и заодно посмотреть, как поведет себя в работе с LLM связка из четырех видеокарт Radeon RX 7900 XTX с 24 гигабайтами видеопамяти.

продолжить чтение

Оценка систем LLM: основные метрики, бенчмарки и лучшие практики

продолжить чтение

Революция с помощью LLM: новая эра в создании программного обеспечения

продолжить чтение

Разбираемся, как устроена R1 – новая бесплатная ризонинг модель ИИ из Китая, работающая на уровне o1 от OpenAI

Вчера, 20 января, китайская лаборатория DeepSeek сделала нам всем настоящий подарок, открыв доступ к новой reasoning-модели R1, которая уже штурмует вершины ML-бенчмарков. R1 – не просто еще одна рассуждающая модель: это первая бесплатная моделька с открытыми весами, которая добивается таких результатов. На математическом бенчмарке AIME 2024 она достигает 79.8%, обогнав даже обновленную версию o1 с ее 79.2%, не говоря уже об o1-mini (63.6%). В кодинге R1 тоже хороша. Например, на Codeforces ее результат – 96.3%, что практически недостижимо для большинства людей.

продолжить чтение

Внедрение LLM в разработку ПО: стоит ли?

Привет, на связи Юлия Рогозина, аналитик бизнес-процессов Шерпа Роботикс. Сегодня я перевела для вас статью, тема которой касается именно использования Large Language Models (LLM) как части вашего продукта, а не использования ИИ как инструмента в процессе разработки (например, таких инструментов, как Cursor или Zed AI).

продолжить чтение

Топ 6 идей для ваших ML pet-проектов в 2025 году

Новый год — это идеальное время для перезагрузки и новых начинаний. Это уникальная возможность не только подвести итоги прошедшего года, но и заложить фундамент для будущих достижений. Если вы давно мечтали о собственном проекте в области машинного обучения, сейчас самое подходящее время, чтобы воплотить эту идею в жизнь.Я и сам когда‑то запустил свой собственный pet‑проект, который очень помог в моей карьере. Подробнее об этом я написал в своём telegram‑канале.

продолжить чтение

Обработка каталога и товаров на LLM

продолжить чтение

Считаем количество токенов для LLM в исходниках ядра Linux и не только…

Эта статья про новое расширение ахритектуры трансформеров – Titan от Google –, позволяющее расширить рамки LLM до 2 млн токенов, побудила поинтересоваться, сколько токенов, пригодных для LLM, содержат исходники колоссального софта. Какой открытый софт будем „препарировать“:MySQLVS Code

продолжить чтение

Причины возникновения галлюцинаций LLM

В данной статье будет представлен укороченный и упрощенный перевод статьи “A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions”. А именно перевод части, относящейся к причинам возникновения галлюцинаций. Упрощение состоит в том, что были опущены части, уходящие в конкретику. В этом переводе мы сосредоточимся на основных причинах возникновения галлюцинаций и примерах.

продолжить чтение

Rambler's Top100