R1.

R1.

ИИ простыми словами, часть 1. Архитектура Mixture of Experts (MoE)

Когда я пишу новости про ИИ, то часто сталкиваюсь с проблемой: они пестрят техническими терминами, которые не всегда понятны даже людям использующим ИИ регулярно. SFT, MoE, RL/RLHF/DPO, миллионы их.Я захотел описать самые популярные термины простым русским языком, чтобы каждый, даже нетехнический человек, мог разобраться в самой главной технологии современности. Чтобы, когда я пишу на Хабр или куда-то ещё, для сложных терминов я сразу мог бы дать ссылку на понятное и простое объяснение.

продолжить чтение

DeepSeek vs OpenAI: кто сильнее?

Китайский стартап представил модель искусственного интеллекта R1, соперничающую с технологиями OpenAI. Однако они сильно различаются. DeepSeek позиционирует свою последнюю модель искусственного интеллекта R1 как особенно эффективную для решения сложных задач, сравнимую по возможностям с моделью рассуждений o1 от OpenAI, но работающую при значительно меньших затратах на один запрос. Невозможно рассматривать новую модель искусственного интеллекта китайского стартапа DeepSeek без сравнения с OpenAI — его главным американским конкурентом.

продолжить чтение

Rambler's Top100