BrainTools - Методики для развития мозга - страница 165

AI-рынок потерял $800 млрд за неделю

продолжить чтение

Разбираю свой фотоархив

TL;DR: Сделал поиск по личному архиву фотографий с применением трех нейросетей, векторного расширения к PostgreSQL и Django. Красивое.Начиная с перехода на цифру у меня накопилось больше 20 тысяч фотографий. Каждый раз, когда я смотрю на эти папки, я понимаю, что никогда не разберу его вручную. А ведь где-то там, несомненно, есть, должны быть жемчужины высокого искусства и фиксация событий эпохального масштаба.

продолжить чтение

  • Оставлено в 

Скам приносит Facebook десять процентов рекламной выручки

продолжить чтение

Реверс-инжиниринг Codex CLI или как я заставил GPT-5-Codex-Mini нарисовать пеликана

Команда AI for Devs подготовила перевод статьи Саймона Уиллиссона о том, как он решил поэкспериментировать с новой моделью OpenAI — GPT-5-Codex-Mini. Немного наглости, немного Rust и щепотка инженерного любопытства — и вот уже Codex CLI превращается в инструмент, который напрямую обращается к закрытому API. Получилось ли заставить модель нарисовать пеликана?Вчера OpenAI частично выпустила новую модель

продолжить чтение

Домашний супер-компьютер для ИИ: какой выбрать в 2025?

Всем привет!2025-й постепенно подходит к концу. А хайп вокруг искусственного интеллекта (ИИ), длящийся уже три года, заканчиваться не собирается. И вполне возможно, что именно в этом году происходит зарождение нового тренда внутри этого хайпа. Он заключается в переносе вычислительных мощностей ближе к пользователю - прямо домой, на его личную вычислительную станцию. Похоже, что большие языковые модели (LLM) и генеративный ИИ перестают быть прерогативой дата-центров.

продолжить чтение

Умер Джеймс Уотсон, первооткрыватель ДНК и рупор научного расизма или о тех, кто сказал два слова, вместо одного

"Испытывайте всё, хорошего держитесь."- 1 Послание к Фессалоникийцам 5:21Джеймс Д. Уотсон7 ноября 2025 года на 97-м году жизни умер Джеймс Д. Уотсон, лауреат Нобелевской премии 1962 года (вместе с Ф. Криком и М. Уилкинсом). 

продолжить чтение

Атом смысла: Серфер на волнах реальности

Опыт предыдущей работы показал, что совмещение онтологии и математического формализма в едином изложении затрудняет восприятие обеих составляющих. Поэтому в данной статье я сосредоточусь исключительно на философских аспектах модели, оставив строгий математический аппарат для следующей публикации. Рассмотрим предельно простую замкнутую Вселенную, состоящую всего из двух частиц.Формально такая система описывается единой волновой функцией:

продолжить чтение

Не только трансформеры: за пределами стандартных архитектур LLM

Привет! Это перевод очень крутой и захватывающей статьи, в которой автор рассматривает альтернативные архитектуры LLM: гибриды с линейным вниманием, диффузионные LLM, модели мира и малые рекурсивные трансформеры. Дальше слово автору:Гибриды с линейным вниманием, текстовая диффузия, модели мира на основе кода и малые рекурсивные трансформеры.От DeepSeek R1 до MiniMax-M2, самые большие и способные LLM с открытыми весами сегодня остаются авторегрессивными (autoregressive) трансформерами декодерного типа, которые построены на различных вариациях оригинального механизма многоголового внимания (multi-head attention).

продолжить чтение

Дайджест препринтов научных статей в области астрофизики за октябрь 2025 года

Подборка свежих научных публикаций в области астрофизики от профессора МГУ Сергея Попова. Основано на выборке интересных научных статей из библиотеки препринтов arxiv.org. Публикуется с согласия автора оригинала и с обязательным указанием ссылок на первоисточники.Заранее прошу прощения, что публикуется в смежных Хабах. Какой-то баг или правило не дает выбрать Хаб «Читальный зал», при создании статьи. Приятного чтения.Выпуск 449arxiv:2510.00102 

продолжить чтение

Как я запустил локальную LLM на Raspberry Pi 5

Последние пару лет я много экспериментировал с LLM на разных железках от GPU-кластеров в облаке до маленьких Raspberry Pi. И вот одна из любимых задачек-провокаций: «А можно ли запустить модель на Pi 4, 5?» Если коротко: можно попробовать, но физика тут сильнее хайпа. У платы есть 8-16 ГБ памяти, у модели десятки гигабайт даже в самых «жестких» квантовках. В лоб это не работает, но зато эксперимент дает интересный результат: мы понимаем, где проходят границы устройства и какие архитектурные схемы реально полезны.

продолжить чтение

Rambler's Top100