Голоса в голове делают ответы ИИ лучше — исследование Google
Исследователи из Google и Чикагского университета выяснили
Конец эры «одноядерного» разума: Почему будущее ИИ — это гонка архитектур, а не параметров
От автора
ClickHouse приобрела разработчика ИИ-решений Langfuse
Американский стартап с российскими корнями ClickHouse приобрёл разработчика ИИ-решений Langfuse, чтобы создать лучшую версию платформы для LLM-инженерии.
«Галлюцинации LLM — это не баг»: профессор математики объясняет, почему ИИ не перестанет врать
Владимир Крылов, профессор математики, научный консультант Artezio и один из самых глубоких русскоязычных экспертов по применению ИИ в разработке, дал интервью по итогам года. Мы поговорили о том, почему reasoning-модели галлюцинируют вдвое чаще обычных (и это математически неизбежно), почему OpenAI объявил «код красный» и отстаёт от Google, и правда ли, что программисты, умеющие писать код только руками, скоро вымрут как вид. Спойлер: Паваротти не умел читать ноты, и это кое-что говорит о будущем vibe-coding.Владимир Крылов регулярно проводит лекции о практическом применении LLM в разработке на канале Ai4dev
Анатомия трансформеров: почему обычный Self-Attention больше не используют
Как работают языковые модели? Думаю, это один из самых актуальных вопросов в последние годы. Я регулярно задаюсь этим вопросом и постоянно читаю материалы по работе трансформеров. Из всего, что я узнал, самый сложный, по моему мнению, механизм в работе LLM - внимание (attention)ВведениеПривет, Хабр! В этой статье я постараюсь рассказать, как механизм внимания помогает языковым моделям обрабатывать тысячи слов контекста и почему с этим не справлялись в свое время обычные RNN. В конце статьи я расскажу про проблемы классического attention и современные адаптации.
Пишем статью на Хабр, используя ИИ: бросаем вызов детекторам искусственного интеллекта
Давайте будем честными: огромное количество авторов статей на уважаемом всеми нами Хабре прибегает к помощи нейросетей. Кто-то структурирует свои хаотичные заметки в нечто осмысленное (так делаю я, например). Кто-то проверяет грамматику и стиль, или просит ИИ набросать черновик статьи, а затем перерабатывает всё вручную.
Похоже, GPT-5.3 уже на подходе — и это может быть один из самых серьёзных апдейтов OpenAI за долгое время
По информации из нескольких источников, новая версия модели проходит под кодовым названием Garlic. Если верить инсайдам, GPT-5.2 был лишь промежуточным чекпоинтом — своего рода «разбавленной версией» того, чем станет 5.3.Главная цифра — 2 000 токенов в секунду. Именно такую скорость сможет выдавать арендный кодинг на базе GPT-5.3 благодаря партнёрству OpenAI с Cerebras.
RLM-Toolkit v1.2.1: Теоретические основы и оригинальные разработки
Научное исследование архитектурных решений в контексте теории информации, криптографии и когнитивных систем📌 Это продолжение статьи RLM-Toolkit: Полное руководство по обработке 10M+ токеновПервая часть охватывала практические аспекты. Здесь — глубокий теоретический анализ: от теории Шеннона до когнитивной архитектуры памяти.АннотацияНастоящая работа представляет комплексный анализ архитектурных решений RLM-Toolkit v1.2.1, разработанного в рамках проекта SENTINEL AI Security Platform.Мы демонстрируем:Криптографическую необходимость
Академия “ГлоуБайт” запустила два новых курса по работе с большими языковыми моделями
Создано с помощью GeminiАкадемия “ГлоуБайт”

