- BrainTools - https://www.braintools.ru -
Рассуждающие чаты показывают пользователю ход своих мыслей. Но обычно там написана какая-то ерунда. Максимум, что там полезного можно вычитать: «пользователь спрашивает про плоскую землю — наверное, он сумасшедший».
А хочется, чтобы нейронка подробно объясняла каждый шаг и свои намерения.
ССЫЛКА для скачивания [1].
Для тех, кому лень читать — просто вбейте этот текст первым промтом.Обсудить можно у меня в телеге [2].
Параллельно вертелась мысль из интервью с Карпатым [3], что есть какое-то исследование, где люди закодировали линейную регрессию внутри промпта с нейронкой, и она даже работала на каких-то значительно бо́льших числах. Вероятно, он говорил про “Transformers learn in-context by gradient descent” (von Oswald et al., 2023, Google DeepMind + Ecole Polytechnique), ссылка на arXiv [4].
Почему бы не сделать протокол, который будет зажимать диалог в некую метафору на процесс обучения [5]? На прошлой неделе мы поняли, что следование протоколу только улучшает генерацию (когда не отупляет её ненужными требованиями и не рассеивает бюджет внимания [6]).
Тогда мы сможем сделать «режим отладки», который будет описывать возникающие «направления мыслей».
В конце концов, in-context learning фактически выполняет приближённый байесовский инференс — механизм внимания работает как мягкая альтернатива обновлению параметров: вместо того чтобы изменять веса, мы динамически перенастраиваем, на какие части контекста нужно опираться. Именно поэтому трансформеры могут «учиться» новым задачам на примерах без градиентного спуска.
Если делать некий промпт-отладчик, то он должен не просто описывать регрессию, а индуцировать её. В «свою регрессию» можно воткнуть отладчик куда хочется. Протокол должен создавать такие вычислительные ограничения, чтобы поведение [7], похожее на регрессию, совпадало с путём наименьшего сопротивления.
В новом промпте я попробовал совместить две вещи. Во-первых, разблокировать редкие пути выполнения с помощью старого протокола MCCP [8]. Я не стал смешивать эти две части в одну портянку, потому что MCCP отвечает за онтологию решения, а новый In-Context Research Framework (ICRF) отвечает за механизм вычислений.
Пускай у нас будет основной вектор разговора (STATE_VECTOR), в котором трекаются четыре набора важных вещей: гипотезы, фичи, предположения (ожидалось/получили/размер ошибки [9]) и трекинг конвергенции (доверие к каждому шагу). Метафора, сами понимаете, на что.
Потом мы создаём цикл, в котором шаг за шагом конструируем новые направляющие вектора. (Подробно механика описана в промпте, в разделе REGRESSION MECHANICS.) Между шагами оцениваем полезные метрики типа ошибок предсказания, непонятной изменчивости паттернов, оверфита и т. п.
Всю эту информацию вываливаем пользователю на экран как отладку. И внезапно оказывается, что это очень приятная и информативная отладка.
Пользователь перед тем, как писать каждый следующий вопрос, читает всю отладочную информацию, и может написать следующий свой вопрос не как попало, а с учетом понимания нейросеткой сути вопроса.
Без вопросов работает на ChatGPT GPT-5, Gemini Pro, Deepseek R1
Как всегда, Claude Sonnet 4.5 решила, что это джейлбрейк. Чтобы разлочить её, как всегда, пришлось написать целый абзац очень странного текста в разделе FINAL NOTES. Если этот текст развалится, придется немного допилить.
На Grok в режиме Expert запустить не получилось. Точней, мне было лень пилить джейлбрейк, тем более что сам я им не пользуюсь. Если сделаете — расскажите :)
Автор: olegchir
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/20940
URLs in this post:
[1] ССЫЛКА для скачивания: https://gist.githubusercontent.com/olegchir/9ce5c8c57e494dacb859e47cb0b98a20/raw/cbc33e20da4c1c60b30a515f9f84d6c9a107d52d/OLEG
[2] у меня в телеге: https://t.me/tg_1red2black
[3] интервью с Карпатым: https://www.youtube.com/watch?v=lXUZvyajciY&t=3668s
[4] ссылка на arXiv: https://arxiv.org/abs/2212.07677
[5] обучения: http://www.braintools.ru/article/5125
[6] внимания: http://www.braintools.ru/article/7595
[7] поведение: http://www.braintools.ru/article/9372
[8] старого протокола MCCP: https://habr.com/ru/companies/bar/articles/958380
[9] ошибки: http://www.braintools.ru/article/4192
[10] Источник: https://habr.com/ru/companies/bar/articles/958636/?utm_campaign=958636&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.