DeepSeek R1. - страница 2

В Германии попросили Apple и Google удалить DeepSeek из магазинов приложений

Немецкие власти объявили китайский чат-бот DeepSeek угрожающим безопасности, а местный регулятор требует удалить его из App Store и Google Play. 

продолжить чтение

Виртуальные ассистенты: обзор самых «умных» нейросетей для ответов на вопросы

продолжить чтение

Ускорение DeepSeek-R1 с подвохом: Когда токены в секунду врут о реальной скорости

ВведениеПосле сборки домашнего сервера для работы с LLM DeepSeek-R1 подробно о нём можно прочитать в статье Локальный DeepSeek-R1-0528. Когда скорость улитки – не приговор, а точка старта возникла потребность сравнить разные квантизации для оптимизации скорости/качества работы. Запуская работу с разными моделями, я заметил что квантизация зачастую приводит к ускорению генерации токенов.

продолжить чтение

Локальный DeepSeek-R1: Когда скорость улитки – не приговор, а точка старта

Зачем?У меня возникло желание запустить локальную версию DeepSeek R1 и V3. Это связано с необходимостью избежать рисков связанных с блокировками доступа и утечкой данных. Ещё добавилось желание протестировать разнообразные настройки LLM. До этого момента я пробовал запускать разные небольшие модели исключительно на cpu. А вот опыта с большими моделями не было.Где?

продолжить чтение

Дистилляция по-китайски: как DeepSeek R1 оказался под прицелом из-за Google Gemini

продолжить чтение

Проверка текста на орфографию: рейтинг лучших AI-корректоров. Часть 1

продолжить чтение

Рейтинг 6 нейросетей для сокращения текста, ч. 2: кто король краткости?

Тонны текста и в финале — чувство, что застряли в бесконечном произведении? Нейросети уже здесь, чтобы вытянуть вас из хаоса. Во второй части обзора — больше инструментов и тестов. Я рассмотрел

продолжить чтение

Как обучить русскоязычную модель рассуждений — LRM?

Ранее на моем YouTube-канале уже были видео о моделях рассуждений — OpenAI o1/o3, DeepSeek R1. Эти модели обучены с помощью стратегии reinforcement learning находить решения для задач, требующих логических рассуждений. Способность строить цепочки рассуждений, ведущих к решению поставленной задачи, открывают возможность применения таких моделей в математике, программировании и других подобных направлениях.​

продолжить чтение

Сатья Наделла: DeepSeek — это новая планка для успеха ИИ Microsoft

Генеральный директор Microsoft Сатья Наделла прокомментировал успехи китайской DeepSeek R1 и отметил, что для работы его компании в области ИИ была установлена ​​новая планка.

продолжить чтение

Claude 3.7 Sonnet: Пора сдвинуть ChatGPT и Deepseek с лидирующих позиций

Последние месяцы рынок AI буквально кипит — одна за другой выходят мощные новинки. ChatGPT-4.5 от OpenAI, GROK-3 от X, свежие релизы от Google Gemini — и Anthropic не осталась в стороне, наконец представив свою свежую модель: Claude 3.7 Sonnet. Как заявляют разработчики, новая модель не просто стала быстрее и умнее своих предшественников, она буквально является гибридной моделью рассуждений. 

продолжить чтение

Rambler's Top100