Алгоритмы. - страница 8

Как найти правила сборки объектов, зная их структуру: обратная инженерия в игре Game of Life

продолжить чтение

Неожиданная эффективность Claude при one-shot-декомпиляции кода Snowboard Kids 2

Я в последнее время экспериментировал с one-shot-декомпиляцией, используя режим Claude без пользовательского интерфейса в непрерывном цикле. Меня на это вдохновила статья о запуске Claude Code в цикле. Эксперимент оказался на удивление продуктивным.

продолжить чтение

RepE — как активационная инъекция влияет на энтропию, деградацию и качество ответов LLM?

Современные большие языковые модели достигли впечатляющих результатов в генерации текста, однако они до сих пор остаются жуткой стохастикой. На мой взгляд проблема текущего ИИ заключается не в синтетических обучающих данных или архитектурных ограничениях, а в отсутствии внутренней верификации.

продолжить чтение

TSP трансформеры

Трансформеры — это больше, чем кажется на первый взглядВозможно кто-то догадался, что заголовок выше — это перевод первых строк темы из ламповых сюжетов мульсериала 80-х:The TransformersMore than meets the eye

продолжить чтение

Нейроучитель — NeuroTeacher

Всем привет!Хочу рассказать об очередном своем пет-проекте, который может быть кому-то тоже полезен. А еще поделиться хорошим предновогодним настроением. Поэтому рассказывать буду в слегка позитивном и шуточном стиле :-)Итак, перед вами — нейроучитель! Хех... Сразу говорю — к нейросетям он не имеет отношения (или опосредованное). Да и не учитель, собственно. Но обо всем по порядку.

продолжить чтение

Новогоднее соревнование CS Space

Приглашаем всех желающих поучаствовать в нашем новогоднем адвент-соревновании по Computer Science, в котором можно считать дни до 2026 года c интересными задачами.С 20 по 29 декабря вас ждёт серия задач по разным тематикам:

продолжить чтение

Путешествие токена: что конкретно происходит внутри трансформера

Из этой статьи вы узнаете о том, как трансформеры преобразуют входные данные в контекстно-зависимые представления и, в итоге, выдают вероятности, влияющие на выбор слов, которые генерируют большие языковые модели.

продолжить чтение

Как мы учим Яндекс Карты предупреждать о манёврах: без использования LLM, но с помощью водителей

продолжить чтение

Джун наоборот или разоблачение главного мифа вайб-кодинга

Вчера (27 ноября) Хабр устроил «Авторский огонёк». Было очень интересно, и меня задело одно утверждение докладчика. Оно заключалось в том, что ИИ может помочь писать простые куски кода, но не работает со сложными вещами. Таким образом, большие языковые модели уподобляются программисту-джуну. Решил с утра накатать об этом статью, опираясь на свои знания и опыт в вычислительной математике (в прошлом занимался моделированием, а последние несколько лет преподаю вычислительную математику в МФТИ), оцените, что получилось. Я думаю, что это главный миф вайб-кодинга

продолжить чтение

Выйти из Матрицы: доказательство того, что реальность реальна

продолжить чтение

1...67891011...20...23