deepseek. - страница 35

Как установить и использовать ИИ модель DeepSeek R-1 на вашем компьютере

Как установить и использовать DeepSeek R-1 на вашем компьютереМногие говорят о DeepSeek R-1

продолжить чтение

Инженер купил домен «OGOpenAI» для китайской DeepSeek

Инженер-программист Ананай Арора приобрёл домен «OGOpenAI.com» и перенаправил его на DeepSeek — китайскую лабораторию искусственного интеллекта, которая выпускает мощные языковые модели с открытым исходным кодом, соревнуясь с OpenAI.

продолжить чтение

Размышляющая модель DeepSeek R1 уже доступна в Ollama

Первое поколение моделей рассуждений от Qwen DeepSeek R1 с производительностью, сопоставимой с OpenAI-o1 уже доступно к установке в Ollama.

продолжить чтение

Moonshot AI представляет Kimi k1.5, следующего китайского конкурента o1

После выпуска DeepSeek-R1 в Китае появилась ещё одна модель логического мышления. Новая мультимодальная модель Kimi k1.5 от Moonshot AI показывает впечатляющие результаты в сравнении с признанными моделями AI в сложных задачах логического мышления.Компания Moonshot AI разработала две версии Kimi k1.5 - одну для подробных рассуждений (long-

продолжить чтение

DeepSeek утверждает, что его модель рассуждений превосходит o1 от OpenAI по некоторым показателям

Китайская лаборатория искусственного интеллекта DeepSeek выпустила открытую версию DeepSeek-R1, своей так называемой модели рассуждений, которая, по её утверждению, работает так же хорошо, как o1 от OpenAI в определённых тестах AI.

продолжить чтение

Мечтают ли электроовцы об андроидах?

В научном журнале Society вышло исследование

продолжить чтение

Deepseek V3 становится самой мощной открытой языковой моделью в Китае на сегодня

Китайская компания Deepseek только что выпустила свою самую мощную языковую модель. Первые тесты показывают, что новая модель V3 может конкурировать с ведущими проприетарными моделями в отрасли и демонстрирует значительное улучшение в задачах логического мышления.Модель, доступная на Github, использует архитектуру Mixture-of-Experts (MoE) с общим количеством параметров 671 миллиард, из которых 37 миллиардов активируются для каждого токена. Это значительное увеличение по сравнению с V2, которая имеет 236 миллиардов параметров, из которых 21 миллиард активен во время вывода.

продолжить чтение

Rambler's Top100