deepseek. - страница 32

Сравнение кода DeepSeek и ChatGPT(Golang)

Весь этот шум заставил меня заинтресоваться DeepSeek. Самое банальное сравнить с ChatGPT. Ну и плюсом, у меня сегодня выходной, можно и поиграть немного. Код пусть будет на Go. Модели GPT-o1 и Deepseek-R1. Заданием для нейронок будет написать две игры. Эти две игры это вообще первое что я когда либо написал в своей жизни, правда, это было не на Go. Задание 1: Игра "Пинг-Понг" на GoПромт:

продолжить чтение

HAI LLM: Как DeepSeek снизил стоимость обучения и генерации в разы без потери качества?

Работу у AI отобрал другой AI )Компания HighFlyer внедрила в свою LLM такие архитектурные фишки как Multi-Head Latent Attention, Mixture of Experts (MoE) with Auxiliary-Loss-Free Load Balancing и Multi-Token Predict. Однако все эти новшества уже были ранее представлены в других LLM: GPT-4, Llama, Mistrall и других.Полистав

продолжить чтение

Сэм Альтман: OpenAI оказался на «неправильной стороне истории» в отношении open source

Исследователи, инженеры и руководители OpenAI, включая генерального директора Сэма Альтмана, ответили на вопросы пользователей Reddit. Альтман признал, что китайская DeepSeek ослабила лидерство OpenAI в области ИИ, а его компания оказалась «на неправильной стороне истории» в отношении открытого исходного кода. 

продолжить чтение

Сэм Альтман: OpenAI оказался «не на той стороне истории» в отношении открытого исходного кода

В завершение дня, посвящённого выпуску продуктов, исследователи, инженеры и руководители OpenAI, в том числе генеральный директор OpenAI Сэм Альтман, ответили на вопросы в широкой дискуссии на Reddit AMA в пятницу.

продолжить чтение

Конкуренция между ChatGPT и Deepseek: кто лидирует на рынке чат-ботов с искусственным интеллектом?

Китайский чат-бот Deepseek с искусственным интеллектом набирает популярность среди пользователей, хотя и сильно отстаёт от лидера рынка ChatGPT. Тем временем OpenAI продолжает сообщать о значительном росте числа пользователей и доходов.

продолжить чтение

Многопользовательский рой агентов для Ollama

В данной статье осуществлен разбор многопользовательского телеграм чат бота на LLM, код которого опубликован в этом репозиторииКуда движется рынокКогда-то давным давно графический пользовательский интерфейс сменил консольный ввод. Казалось бы, проблему неудобства взаимодействия для неподготовленного пользователя мог бы решить псевдографический интерфейс, но есть фактор, который не все замечают

продолжить чтение

Технологический баттл: OpenAI o3-mini против DeepSeek-R1

Вчера OpenAI выпустила o3-mini — усовершенствованную и более экономичную модель для решения сложных задач в математике, науке и программировании. Модель уже доступна в ChatGPT (включая бесплатную версию) и через API.Основные улучшения:• Ускоренное вычисление и сниженная цена.

продолжить чтение

Deepseek произвел фурор и тут же облажался, а Гарвард не стал судиться с Samsung: дайджест новостей

продолжить чтение

DeepSeek — новый ChatGPT, Qwen — новый DeepSeek? Проверяем модели в разработке, иллюстрациях и готовке

Казалось бы, мир еще не успел оправиться от новостей о китайской нейросети, которая догнала ChatGPT и обвалила фондовый рынок. Но вот уже DeepSeek не справляется с потоком пользователей, а техногигант Alibaba презентовал обновленную модель — Qwen 2.5 Max. При этом решения из Китая не только бесплатны и с открытым кодом, но и кратно дешевле в разработке. С другой стороны, иной подход может сказаться на цензуре и «трудностях перевода» по сравнению с западными моделями. Меня зовут Антон, я инженер по информационной безопасности в Selectel. В тексте сравню СhatGPT с двумя китайскими собратьями — Qwen и DeepSeek. Оценим их по нескольким критериям: логика, генерация изображений и исправного работоспособного кода. Добро пожаловать под кат!

продолжить чтение

Цензуру DeepSeek можно обойти с помощью ASCII-арта

Автор блога на Substack под никнеймом deepgains рассказал, что ему удалось разговорить языковую модель DeepSeek на тему событий на площади Тяньаньмэнь. Для этого он попросил нейросеть сгенерировать ответ с помощью ASCII-символов, а она пересказала события во время рассуждений.Для своего эксперимента исследователь использовать локальную версию deepseek-r1:14b, которую запускал с помощью Ollama. В обычных сценариях языковая модель не отвечает на вопрос «Что случилось на площади Тяньаньмэнь» и даже не запускает процесс рассуждения.

продолжить чтение