нейросети. - страница 101

Зачем вашему процессору нейронный блок, если есть RTX 4090?

2024 и 2025 годы в индустрии железа прошли под знаком двух букв: AI. Если раньше нам продавали гигагерцы и количество ядер, то теперь маркетологи Intel, AMD и Qualcomm меряются TOPS (триллионами операций в секунду). Нам обещают эру «AI PC», встраивают нейронные блоки (NPU) даже в бюджетные «камни» и лепят отдельные кнопки для вызова ассистентов на клавиатуры.

продолжить чтение

ИИ клонирует себя без спроса — что будет дальше?

wallpapercat.comЯ помню тот самый момент в «Матрице: Перезагрузка», когда Агент Смит, уже не связанный правилами системы, смотрит на Нео и говорит:«Я, я… и я тоже!»И внезапно их становится сотня

продолжить чтение

Google и Microsoft на мели. Вся правда о долге на $100 миллиардов, который от нас скрывают

Вся история с генеративным ИИ держалась на одном главном мифе - теории о том, что «взрослые всё контролируют». Это была та самая подушка безопасности, которая в умах людей отделяла нынешнее безумие от катастрофического краха доткомов.Нам внушали, что на этот раз всё иначе, ведь у руля стоят не какие-то хлипкие стартапы, сжигающие венчурный капитал на доставку кошачьего корма. Нет, это Nvidia, Google, Microsoft, *Meta и Amazon. А те немногие лидеры, что всё-таки являются стартапами, вроде OpenAI и Anthropic

продолжить чтение

Создание ИИ-персон и User Stories для улучшения UX

В течение нескол��ких месяцев я создаю себе воображаемых пользователей и провожу с ними глубинные интервью для улучшения сервиса контроля стройки домов в ИЖС “Пазл Дом”.

продолжить чтение

OpenAI и Google раскрыли, как ИИ меняет правила выхода на рынок

продолжить чтение

«Закон уплотнения» LLM: плотность способностей удваивается каждые 3,5 месяца

TL;DRПредлагается «закон уплотнения» для больших языковых моделей: максимальная плотность способностей удваивается примерно каждые 3,5 месяца. То есть всё больше качества удаётся выжать из каждого параметра модели.Вводится метрика плотности способностей: считается, сколько параметров потребовалось бы референсной модели, чтобы показать такое же качество, и это число сравнивается с реальным количеством параметров. Так видно, какие модели обучены «экономно», а какие — расточительно.

продолжить чтение

Prime Intellect представила INTELLECT-3: 106 миллиардов параметров и суперспособности в reasoning

Prime Intellect выпустили INTELLECT-3

продолжить чтение

Как Google собирается создать AGI: интервью с главным архитектором DeepMind

продолжить чтение

Apple создает альтернативу диффузионным нейросетям

продолжить чтение

США официально подтвердили, что искусственный интеллект не может считаться изобретателем

продолжить чтение