deepseek. - страница 4

DeepSeek обучила LLM за 294 тыс. долларов. Как это удалось и чем этот путь отличается от OpenAI

Разработка больших языковых моделей обычно ассоциируется с астрономическими затратами. Но пример китайской компании DeepSeek показывает, что эта логика не всегда работает: их модель R1 была дообучена всего за 294 тыс. долларов США (на базовую версию ушло около 6 млн). Для сравнения, создание ChatGPT обошлось OpenAI в суммы на порядки выше.

продолжить чтение

Векторная арифметика колбасы. Как объяснить жене нейропропмптинг на базе запроса «оливье с креветками»

Рецепт от нейрошефа

продолжить чтение

Новый релиз DeepSeek V3.2-Exp — ускорение и снижение цен на API

продолжить чтение

Создание умных AI-агентов: полный курс по LangGraph от А до Я. Часть 3. Даём ИИ руки: работа с инструментами и MCP

В предыдущих частях мы создали умных агентов с памятью и мультимодельными системами. Но есть проблема — они всё ещё умные болтуны.Критическое ограничение: агенты без рукНаши агенты могут анализировать, классифицировать и синтезировать ответы, но НЕ МОГУТ:Зайти в базу данных за информациейПрочитать файл с дискаСделать HTTP-запрос к APIСоздать отчёт и сохранить егоОтправить email или выполнить git commit

продолжить чтение

К чему нас приведет ИИ: закат цивилизации или новый рассвет

Привет! Я — Иван Башарин, Руководитель лаборатории ИИ и архитектор решений в VESNA.Честно признаюсь, мне немного страшно из-за ИИ. Но не переживайте, это не очередная пугалка без самокритики, дочитайте до конца.Мы очень быстро согласились на новый ритм: результат теперь приходит раньше, чем мы приложим хоть какие-то серьезные усилия. Раньше, чтобы получить нормальный текст, иллюстрацию или кусок рабочего кода, нужно было по-настоящему попыхтеть — руками, головой. А иногда и потерять пару десятков нервных клеток.

продолжить чтение

Насколько зацензурен и опасен DeepSeek?

Насколько предвзят искусственный интеллект? Принято ругать нейросети за трансляцию стереотипов человеческого мышления, которые были подсмотрены в датасетах для обучения. На деле ИИ куда более аккуратен, чем можно ожидать.Хороший пример — генерация фотографий бабочек. Как правило, дизайнеры-люди очень любят изображать бабочек в мёртвом виде. Дело в том, что энтомологи руководствуются строгими визуальными стандартами: вид сверху, расправленные на 180° крылья, чистый фон, симметрия.

продолжить чтение

Когда код зависит от политики: скандальное открытие о DeepSeek

продолжить чтение

DeepSeek анонсировал новую версию своей модели — V3.1-Terminus

продолжить чтение

Исследование: DeepSeek снижает качество кода для пользователей из Тайваня и Тибета

Исследователи IT-компании CrowdStrike провели эксперимент, в ходе которого они запрашивали у DeepSeek помощь в написании программного кода. Выяснилось, что нейросеть может изменять качество выдачи в зависимости от региона, в котором находится пользователь.

продолжить чтение

Нет, тренировка DeepSeek R1 не стоила $294 тыс. Реальная цифра в десятки раз выше

В интернете широко обсуждают опубликованный в Nature отчет авторов DeepSeek, в котором якобы заявляется, что обучение модели R1 обошлось компании всего в 294 тысячи долларов. Цифра выглядит сенсационной, ведь конкуренты тратят на создание своих моделей в тысячи раз большие суммы: например, для Claude Sonnet 3.7 давали оценку в несколько десятков миллионов долларов. Если бы взятая из Nature цифра была правдой, то получилось бы так, что у конкурентов нет никаких шансов перед командой DeepSeek. Но это не так.

продолжить чтение

1...234567...2030...31
Rambler's Top100