DeepSeek R1.

DeepSeek + Unity: Как заставить ИИ рисовать схемы и не сойти с ума от веселья

продолжить чтение

Квантовые физики уменьшили и «освободили от цензуры» DeepSeek R1

Им удалось сократить размер ИИ-модели рассуждений более чем наполовину — и они утверждают, что теперь она может отвечать на политически чувствительные вопросы, которые раньше были под запретом в китайских ИИ-системах.TL;DR:Multiverse Computing сжала DeepSeek R1 с помощью квантово-вдохновлённых тензорных сетей: модель стала на 55% компактнее при почти той же точности. По пути они «сняли» китайскую цензуру: модифицированная версия отвечает на табуированные для китайских LLM вопросы примерно как западные модели.

продолжить чтение

Сооснователь Databricks призывает США перейти на open-source ИИ, чтобы обойти Китай

продолжить чтение

Rоманда WeiboAI представила компактную модель с 1.5 миллиарда параметров

Исследовательская команда WeiboAI представила VibeThinker-1.5B

продолжить чтение

Perplexity научила триллионные ИИ-модели работать без суперкомпьютеров

продолжить чтение

Нет, тренировка DeepSeek R1 не стоила $294 тыс. Реальная цифра в десятки раз выше

В интернете широко обсуждают опубликованный в Nature отчет авторов DeepSeek, в котором якобы заявляется, что обучение модели R1 обошлось компании всего в 294 тысячи долларов. Цифра выглядит сенсационной, ведь конкуренты тратят на создание своих моделей в тысячи раз большие суммы: например, для Claude Sonnet 3.7 давали оценку в несколько десятков миллионов долларов. Если бы взятая из Nature цифра была правдой, то получилось бы так, что у конкурентов нет никаких шансов перед командой DeepSeek. Но это не так.

продолжить чтение

DeepSeek: обучение модели R1 обошлось всего в $294 тысяч

Китайская компания в сфере искусственного интеллекта DeepSeek отчиталась, что потратила $294 тыс. на обучение своей модели R1 — это значительно меньше расходов, которые озвучили американские конкуренты по поводу своих разработок. Для этого DeepSeek задействовала 512 ускорителей Nvidia H800.

продолжить чтение

DeepSeek-R1: ИИ впервые научился рассуждать с нуля

В Nature опубликована работа, которая уже наделала шума в научном сообществе. Китайская команда представила DeepSeek-R1, первую масштабную языковую модель, которая научилась рассуждать без примеров от человека.

продолжить чтение

Гибридный Deepseek v3.1 обошёл модель R1 в тестах на рассуждение

продолжить чтение

Локальная LLM: гадкий утенок в мире прекрасных лебедей

Сравнительный анализ локальных и облачных LLMВсем привет! Я — Иван, инженер по разработке AI-систем CodeInside. Мы разрабатываем и внедряем кастомные AI-решения — от интеллектуальных поисковых систем на основе RAG до специализированных AI-агентов и ассистентов для автоматизации процессов в бизнесе и промышленности.

продолжить чтение

Rambler's Top100