DeepSeek обошёл OpenAI и Google: компания влила в R1 294 тысячи долларов. ai.. ai. chatgpt.. ai. chatgpt. deepseek.. ai. chatgpt. deepseek. gemini.. ai. chatgpt. deepseek. gemini. llm.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub. Будущее здесь.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub. Будущее здесь. ИИ.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное.. ai. chatgpt. deepseek. gemini. llm. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное. нейросети.
DeepSeek обошёл OpenAI и Google: компания влила в R1 294 тысячи долларов - 1

Китайский стартап DeepSeek заявил, что обучил свою новую модель R1 всего за 294 тысячи долларов — и этим шокировал рынок. Для сравнения: обучение GPT-4 у OpenAI, по оценкам аналитиков, стоило от 100 до 300 миллионов долларов, а Gemini 1.5 у Google — около 200 миллионов. То, что DeepSeek сумел добиться сопоставимого уровня качества при расходах в тысячу раз меньше, выглядит как переломный момент в экономике искусственного интеллекта.

R1 тренировалась всего 80 часов на 512 GPU Nvidia H800, а на подготовительном этапе использовались A100. Ключ к успеху, по словам компании, — оптимизация архитектуры и алгоритмов обучения. Иными словами, не brute force с миллиардами параметров и безграничными бюджетами, а точечная инженерия и умные методы.

Если раньше обучение передовых языковых моделей было доступно только техногигантам с бездонными кошельками, то теперь в игру потенциально могут включиться средние компании и даже университетские лаборатории.

Успех DeepSeek имеет и политический подтекст: до сих пор в области больших моделей доминировали американские компании, а теперь Китай показывает, что способен соревноваться не только в масштабах, но и в эффективности. Это напрямую влияет на глобальную конкуренцию — удешевление разработки делает технологии ИИ более доступными и ускоряет их внедрение в самые разные сферы, от образования до биотехнологий.

Вместе с тем компания оказалась в центре спора. Критики обвинили DeepSeek в том, что в данных для её прошлой модели V3 могли оказаться ответы ChatGPT, то есть результаты дистилляции чужих систем. В DeepSeek это признали, но подчеркнули: попадание таких данных было случайным эффектом веб-скрейпинга, а не намеренным копированием, а R1 создана как самостоятельная модель.

Главный вывод, который делают эксперты: если DeepSeek удастся масштабировать этот подход, себестоимость создания ИИ может резко снизиться для всей индустрии. Это грозит нынешним лидерам волной дешёвых, но мощных альтернатив из Китая и может радикально изменить баланс сил на мировом рынке.


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник

Автор: cognitronn

Источник

Rambler's Top100