Алгоритмы. - страница 3

Залипаешь в рилсах? Причины: непонимание эмоций и страх быть отвергнутым

TikTok, Reels, Shorts затягивают похлеще Гаргантюа из Интерстеллар. Но почему одних людей затягивает в пучину с головой, а другие практически в них не заходят?  Новое исследование предлагает объяснение: тип привязанности на основе тревожности или же модель отношений, основанная на страхе быть покинутым. Вот тот самый фактор, предсказывающий зависимость от коротких видеороликов.

продолжить чтение

Google представила новый ИИ-алгоритм сжатия памяти TurboQuant

Исследователи искусственного интеллекта Google представили TurboQuant, новый сверхэффективный алгоритм сжатия памяти для ИИ.

продолжить чтение

Что умеют школьники, которые через 5 лет будут нашими коллегами

продолжить чтение

Новый 3-битный алгоритм Google заставил рынок переоценить ИИ-индустрию

Индустрия искусственного интеллекта годами развивалась по пути грубой силы — бесконечного наращивания вычислительных мощностей. Но когда физические пределы «железа» стали очевидны, в игру вернулась чистая математика.В среду, 25 марта 2026 года, на биржах произошла аномалия. Пока индекс Nasdaq уверенно рос, акции гигантов индустрии памяти — Micron, Western Digital, Seagate, а также производителей оборудования Lam Research и Applied Materials — 

продолжить чтение

TurboQuant. Новый алгоритм сжатия от Google

Google Research выпустили TurboQuant - новый алгоритм сжатия данных, который сокращает объём кэш-памяти LLM как минимум в 6 раз и даёт ускорение до 8 раз. При этом заявляется отсутствие потерь в точности, что напрямую влияет на эффективность работы ИИ.

продолжить чтение

Конец эпохи вероятностного ИИ: почему гонка за GPU от Nvidia — это архитектурный тупик

Индустрия генеративного искусственного интеллекта больна

продолжить чтение

Как мы пришили LLM «спинной мозг»: архитектура рефлексов для ИИ-агентов в 60 FPS

Привет, Хабр!Интеграция современных LLM в геймдев, виртуальных ассистентов и робототехнику сейчас напоминает попытку прикрутить двигатель от космического шаттла к телеге. У вас есть невероятно умная модель, которая понимает тончайший контекст, но её inference latency (задержка вывода) убивает любой пользовательский опыт.Пока ваш ИИ-NPC парсит входящий аудиопоток, отправляет запрос по API, ждет генерации ответа и распаковывает JSON в анимацию, проходит от 1 до 3 секунд. В динамичной среде — это вечность.

продолжить чтение

Клод Шеннон. Отец цифровой эры

продолжить чтение

Последний экзамен человечества: насколько «умен» ИИ?

продолжить чтение

Сложные вычисления — в минимальном объёме памяти

По закону Мура плотность транзисторов на микросхеме удваивается каждые 24 месяца. Производительность CPU, GPU, TPU и NPU растёт уже несколько десятилетий, что привело нас вплотную к задачам эмуляции мозга и Сверхинтеллекта.

продолжить чтение