ai.
ОЦЕНКА ПОТРЕБНОСТЕЙ В GPU ДЛЯ AGI МАСШТАБА МОЗГА
Определение того, на сколько GPU может приблизиться к вычислительной мощности человеческого мозга, связано с серьёзными техническими, теоретическими и архитектурными сложностями. Современные системы на базе GPU фундаментально отличаются от биологических нейронных сетей, поэтому любые разговоры о «GPU-эквивалентах» стоит воспринимать как приблизительные. Ниже приводится анализ и синтез ключевых идей и имеющихся неопределённостей. 1. ВЫЧИСЛИТЕЛЬНЫЕ ПОТРЕБНОСТИ ЧЕЛОВЕЧЕСКОГО МОЗГА
DeepSeek-R1: особенности модели и как запустить модели DeepSeek-R1 на вашем компьютере
DeepSeek-R1? Не доверяйте новостям. Действительно ли эта модель с открытым исходным кодом превосходит даже OpenAI, или это очередная фейковая новость?
DeepSeek-R1. Действительно ли эта модель превосходит даже модели от OpenAI, или это очередная фейковая новость?
DeepSeek-R1? Не доверяйте новостям. Действительно ли эта модель с открытым исходным кодом превосходит даже OpenAI, или это очередная фейковая новость?
DeepSeek вытесняет ChatGPT с поста топового приложения App Store
Мобильное приложение DeepSeek в эти выходные взлетело на первое место в магазинах приложений по всему миру, обогнав американский чат-бот с искусственным интеллектом ChatGPT. По данным компании Appfigures, занимающейся аналитикой мобильных приложений, DeepSeek в настоящее время является бесплатным приложением номер один в App Store в США и 51 другой стране.
Как работает модель DeepSeek-R1. Объясняем в иллюстрациях и схемах
DeepSeek-R1 — это самый громкий релиз последних дней в области искусственного интеллекта. Для сообщества исследователей и разработчиков машинного обучения (ML R&D) эта модель имеет особое значение по ряду причин:Модель обладает открытыми весами и включает уменьшенные, дистиллированные варианты.Она делится и размышляет над методом обучения, позволяющим воспроизвести модель рассуждений, подобную OpenAI O1.В этой публикации мы рассмотрим, как была создана DeepSeek-R1.Дисклеймер: это вольный перевод статьи
Аномалии DeepSeek-v3 и DeepSeek-r1: глюкнутые токены и чат, теряющий идентичность
«Аномальные», «глючные» и «непроизносимые» токены в больших языковых моделях (LLM) — это те, которые вызывают странное поведение или не функционируют как обычный текст. Явление было впервые открыто и задокументировано
Вокруг да около ChatGPT: AI-ассистенты, о которых вы могли не слышать
ChatGPT – лишь один из множества инструментов, меняющих подход к работе с текстом. В этой статье мы разберем его альтернативы, а заодно расскажем, как искусственный интеллект помогает ускорять создание контента и оптимизировать управление знаниями в системе Документерра. Если вам интересны практичные AI-решения и их применение в реальных задачах, эта статья для вас. source:
Alibaba выпустила модель Qwen с открытым исходным кодом, которая обрабатывает 1 миллион входных токенов
Команда Qwen от Alibaba только что добавила в семейство Qwen2.5 два новых элемента: Qwen2.5-7B-Instruct-1M и Qwen2.5-14B-Instruct-1M. Эти модели с открытым исходным кодом способны обрабатывать контекстные окна длиной до миллиона токенов, что делает их уникальными среди общедоступных моделей с подобными возможностями.
AI-модель o1-mini продолжает улучшаться после критики и нескольких циклов обратной связи
Исследователи из Китайского университета Гонконга в Шэньчжэне, а также представители компаний Qwen от Alibaba и Шэньчжэньского научно-исследовательского института больших данных провели исследование и выявили интересную особенность в работе модели o1-mini от OpenAI. В то время как большинство систем искусственного интеллекта ухудшают свои результаты при попытке исправить собственные ошибки, o1-mini обычно улучшает свою производительность.

