архитектуры ai.

Итоги LLM в 2025 году: прогресс, проблемы и прогнозы

Один из лучших обозревателей в мире LLM выпустил масштабный разбор всего самого важного, что случилось с языковыми моделями в 2025 году. Я перевел, чтобы как можно больше людей прочитало этот фундаментальный труд. Дальше — слово автору.На исходе 2025 года предлагаю оглянуться на ключевые достижения в области больших языковых моделей (LLM) и проанализировать оставшиеся ограничения и нерешенные проблемы, а также высказать несколько соображений о дальнейшем развитии событий.

продолжить чтение

Технический обзор моделей DeepSeek от V3 до V3.2

Три самые постоянные вещи в мире — оливье с мандаринами на Новый год, желание начать новую жизнь с понедельника и то, что если выходит статья Себастьяна Рашки, то я делаю ее качественный перевод на русский. Эта технически глубокая статья известного исследователя LLM о том, как эволюционировали флагманские модели с открытыми весами от DeepSeek и обзор DeepSeek V3.2.

продолжить чтение

Нейросеть — это?

Доброго времени суток, «Хабр»! На дворе век технологий, которые внедряются уже буквально повсюду. С одной стороны, подобное упрощает нам жизнь, с другой — всё это простые механизмы, которыми нужно уметь пользоваться и понимать, что в любой момент мы можем остаться без них.Сегодня мы поговорим об искусственном интеллекте, а я постараюсь ответить на вопрос: что же такое эти ваши нейросети?

продолжить чтение

Люди-архиваторы, или как работают обратные аналогии

Когда‑то я посмотрел очень полезное видео про ML, где для аналогии нейронной сети приводилось понятие архиватора. Помню меня это впечатлило и определённо расширило кругозор. Странно, почему тогда я сразу не перенёс это на людей — скорее всего потому, что принято брать мозг за эталон и с него примерять разные наряды на искусственные нейронные сети, а не наоборот.

продолжить чтение

Rambler's Top100