Как большие языковые модели планируют свои ответы еще до их генерации
Привет, Хабр! Что, если я скажу, что большие языковые модели не просто предсказывают следующий токен в ответ на запрос, а уже на ранних этапах формирования ответа «заранее планируют» его характеристики?Тайна скрытого слоя: что происходит внутри LLM?
Проблемы языковых моделей при анализе длинных текстов: выводы исследования
В результате исследования, проведённого учёными из Мюнхенского университета Людвига-Максимилиана, Мюнхенского центра машинного обучения и Adobe Research, было установлено, что современные языковые модели искусственного интеллекта имеют ограничения при обработке и анализе больших объёмов текстовой информации.
Почему искусственный интеллект такой дорогой: пять причин от Bloomberg
Стремление к созданию более масштабных моделей искусственного интеллекта, а также увеличение числа чипов и дата-центров для их разработки, оборачивается значительными расходами для технологических компаний.Важное примечание
Anthropic представила новый метод защиты больших языковых моделей от взломов
Спустя два года после появления ChatGPT на рынке появилось множество больших языковых моделей (LLM), и почти все они по-прежнему уязвимы для взлома — специальных запросов и других обходных путей, которые заставляют их генерировать вредоносный контент.
Как работает модель DeepSeek-R1. Объясняем в иллюстрациях и схемах
DeepSeek-R1 — это самый громкий релиз последних дней в области искусственного интеллекта. Для сообщества исследователей и разработчиков машинного обучения (ML R&D) эта модель имеет особое значение по ряду причин:Модель обладает открытыми весами и включает уменьшенные, дистиллированные варианты.Она делится и размышляет над методом обучения, позволяющим воспроизвести модель рассуждений, подобную OpenAI O1.В этой публикации мы рассмотрим, как была создана DeepSeek-R1.Дисклеймер: это вольный перевод статьи
Исследователи взломали модель DeepSeek-R1 для создания вредоносных выходных данных
Компания по кибербезопасности KELA рассказала, что ей удалось взломать модель DeepSeek-R1 для создания вредоносных выходных данных. Исследователи отметили, что DeepSeek R1 имеет сходство с ChatGPT, но значительно более уязвима.
Инженер купил домен «OGOpenAI» для китайской DeepSeek
Инженер-программист Ананай Арора приобрёл домен «OGOpenAI.com» и перенаправил его на DeepSeek — китайскую лабораторию искусственного интеллекта, которая выпускает мощные языковые модели с открытым исходным кодом, соревнуясь с OpenAI.
Компания Lumina AI выпускает PrismRCL 2.6.0 с расширенными параметрами обучения LLM
Lumina AI, лидер в области решений для машинного обучения, оптимизированных для центральных процессоров, объявляет о выпуске PrismRCL 2.6.0, последней версии своего флагманского программного обеспечения, разработанного для повышения производительности и эффективности машинного обучения. В этом выпуске представлена долгожданная функция: параметр обучения LLM (большой языковой модели), которая ещё больше расширяет возможности RCL по созданию базовых моделей с беспрецедентной скоростью и экономичностью.

