dots.llm1.

Rednote выпускает свою первую языковую модель с открытым исходным кодом и архитектурой Mixture-of-Experts

Компания Rednote, занимающаяся социальными сетями, выпустила свою первую большую языковую модель с открытым исходным кодом. Система Mixture-of-Experts (MoE), получившая название dots.llm1, предназначена для того, чтобы соответствовать производительности конкурирующих моделей при значительно меньшей стоимости.

продолжить чтение

Rambler's Top100