- BrainTools - https://www.braintools.ru -

Когнитивная зарубка: Что мы теряем, работая с LLM, и при чём здесь невесомость

Вторая статья из цикла «Слова, которых нет»

Начало здесь >>> [1]

Знакомая ситуация: сидишь над задачей, что-то не складывается, спрашиваешь LLM. Получаешь хороший ответ, копируешь решение, всё работает. А через час к тебе подходит коллега: «А это вообще как устроено? Почему ты именно так сделал?», и тут ты обнаруживаешь, что объяснить не можешь: решение работает, оно у тебя в проекте, но ты не помнишь его логики. Открываешь чат, перечитываешь — и как будто чужой текст перед глазами, знание прошло через тебя, но в тебе не задержалось.

Это, наверное, самый частый и самый недообсуждаемый эффект работы с LLM. Все спорят про качество генерации и сэкономленное время, но упускают из виду важный момент: мы стали путать выданный ответ с усвоенным знанием. За пару минут в чате мы получаем готовое решение, полностью минуя этап интеллектуального напряжения. А там, где не было этого напряжения, мысли просто не за что зацепиться — она пролетает транзитом, не задерживаясь.

Возникает состояние когнитивной невесомости: космонавт на орбите тоже может одним пальцем сдвинуть тяжёлый контейнер, потому что у того пропал вес, но без гравитации тело лишается привычной обратной связи, и мозг [2] перестаёт понимать, где верх, а где низ, не может рассчитать усилие и теряет точку опоры (а со временем из-за этого начинает сдавать и физически). С LLM мы попадаем в похожую ловушку — легко жонглируем сложными кусками кода или текста, но не чувствуем их веса. Действие совершается, но из-за отсутствия сопротивления мы перестаём «осязать» саму задачу, поэтому она и не оставляет в нас никакого следа.

К теме невесомости мы ещё вернёмся. Пока — другое наблюдение, с которого имеет смысл начать.

С одной стороны, любому, кто работал с LLM, знакомо чувство, что её ответам трудно сопротивляться: они приходят в законченной форме, со структурой, с примерами, с аргументами. Психологически отвергнуть такой ответ сложно — если у тебя нет своей проработанной позиции, ты её просто принимаешь, и в момент принятия отказываешься от собственной работы по формированию мысли.

С другой стороны, есть вконец доставший вездесущий нейрослоп: этот текст люди отвергают, причём на уровне инстинктов — даже когда он написан грамотно, раздражение возникает раньше анализа, едва распознаешь знакомый паттерн.

Тут есть видимое противоречие: полированный ответ принимаем, нейрослоп отвергаем — хотя это один и тот же текст, генерируемый одной и той же технологией.

Claude в нашем разговоре предложил разрешение этого противоречия через позицию читателя. Когда я заказчик и у меня есть нерешённая задача, цена отказа высока, и мозг ищет причины принять предложенное. Но когда я просто читатель, то ничего не теряю, отвергнув. Объяснение хорошее, но остается неясным, почему именно паттерны нейрослопа считываются почти мгновенно, до содержательного анализа.

Мне кажется, разгадка глубже, потому что в живом человеческом тексте всегда видны следы сопротивления, местА, где автор колебался, переписывал, выбирал между двумя формулировками, отказывался от первой версии в пользу второй, пусть даже не всегда у него получилось идеально. Эти места создают рельеф, по которому читатель чувствует, что здесь автор думал, а не копипастил из чата. Текст с рельефом читается как путь — с подъёмами, спусками, поворотами, текст без рельефа — как идеально гладкая поверхность, по которой глаз скользит, не цепляясь.

В нейрослопе раздражает именно отсутствие рельефа, а не качество как таковое — текст может быть вполне грамотным, но след усилия в нём отсутствует, и это считывается мгновенно, на уровне эстетики, до всякого рассуждения о качестве.

След усилия — это и есть та самая когнитивная зарубка: след сопротивления, оставшийся в материале или в человеке. В тексте он проявляется как рельеф, в мозге — как интегрированное знание. И в нейрослопе, и в нашей собственной работе с LLM может происходить одно и то же: материал прошёл через нас, не оставив следа.

Чтобы понять, что именно тут происходит, имеет смысл вернуться на двадцать пять лет назад и посмотреть на одну философскую идею, которая внезапно обрела практическую значимость.

В 1998 году Энди Кларк и Дэвид Чалмерс опубликовали работу «The Extended Mind», в которой утверждали странную (по крайней мере, на тот момент) вещь: разум человека не ограничен черепной коробкой. Они предположили, что к разуму относится всё, что функционально его расширяет — записи, инструменты, среда. Если я записываю номер телефона в блокнот и пользуюсь им как памятью [3], блокнот функционально является частью моей памяти. То, что работает как память, и есть память, независимо от того, лежит ли это в нейронах или в блокноте.

Один из канонических примеров Кларка и Чалмерса — мысленный эксперимент про двух людей в Нью-Йорке, которые хотят попасть в Музей современного искусства. Первая, Инга, вспоминает адрес из головы и идёт. Второй, Отто, страдает болезнью Альцгеймера и носит с собой записную книжку, в которую заносит всё, что должен помнить, он смотрит адрес в книжке и идёт. По логике [4] авторов, оба совершают одно и то же когнитивное действие — извлекают информацию из своей системы памяти. У Инги система внутри головы, у Отто — частично снаружи. Но функционально это одна и та же память, и считать когнитивной только биологическую часть значит произвольно проводить границу там, где её на самом деле нет.

Тогда идея вызвала много споров, но сейчас, полагаю, спорить с ней смысла нет. Мы постоянно делегируем когнитивные функции внешней среде: календарь хранит наши встречи, навигатор — карты, поисковик — факты. Это нормально и работает на расширение наших возможностей, а не на их ослабление. Кларк называл человека «прирождённым киборгом»: способность встраивать внешние инструменты в собственное мышление [5] и есть наша главная эволюционная особенность.

Но Кларк и Чалмерс писали о делегировании хранения, поиска и вычислений по чётко заданному алгоритму. С LLM мы впервые в истории делегируем нечто другое — сам процесс вывода, reasoning, то, что нельзя восстановить, вернувшись к источнику.

Граница тут очень тонкая. Записанный в блокноте телефонный номер всегда можно прочитать заново, найденный в поисковике факт перепроверяется по той же ссылке, решённое в калькуляторе уравнение пересчитывается вручную (хотя будет сложно, я гарантирую это), и результат будет тем же. Во всех этих случаях когнитивный артефакт остаётся внешним, доступным, проверяемым. А сделанный LLM содержательный вывод — синтез, аргумент, объяснение — «открыть заново» невозможно. Если я не сделал работу синтеза сам, у меня нет ни самой мысли, ни механизма, чтобы её восстановить. Есть только текст ответа, который я могу перечитать, но мысли в нём для меня нет — потому что мысль возникает в процессе её создания, а не в её записи.

Граница тут проходит ровно по этому: делегирование хранения сохраняет нашу компетентность, тогда как делегирование самого вывода её замещает.

У интеллектуальной невесомости есть и отложенное последствие. Космонавты, проведшие месяцы на орбите, теряют костную и мышечную массу. Кости перестают наращивать плотность, мышцы атрофируются — без постоянной нагрузки тело перестаёт поддерживать то, что больше не требуется (для меня шоком было, когда я увидел, как после полугода на орбите космонавтов буквально на руках из спускаемой капсулы выносят).

Мышление устроено похоже. Оно эволюционировало в условиях постоянного когнитивного сопротивления: нужно было удерживать в голове сложные образы, выводить новое из старого, держать аргумент, пока ищешь контраргумент, бороться с забыванием [6], тренировать память повторением [7]. Без всех этих форм сопротивления среды мышление, как и тело, не имеет стимула [8] поддерживать соответствующие способности.

В этом и состоит долговременный риск интеллектуальной невесомости. В моменте мы теряем обратную связь и осязание [9] задачи, о которых говорилось в начале, а на горизонте месяцев и лет к этому добавляется постепенная атрофия того, что без сопротивления больше не требуется поддерживать.

И здесь у метафоры есть ещё одна полезная сторона: она автоматически подсказывает правильную форму ответа. Ведь от полётов в космос никто не отказывается, и никому не приходит в голову сказать, что в космос больше ни ногой. Говорят: «в космосе нужны новые виды тренировок, которых на земле не было». Космонавты по два часа в день делают силовые упражнения на специальных тренажёрах с эластичной нагрузкой — потому что без неё кости и мышцы сдают. Это новая дисциплина, которой не было раньше, и она необходима именно потому, что человек оказался в новой среде.

Работа с LLM ставит нас в похожее положение. Прежние формы умственной нагрузки — чтение, письмо, борьба с пустой страницей, ручной перебор вариантов — раньше возникали сами собой, потому что без них работу было не сделать. Теперь они стали факультативными, и, как мышцы у космонавта, без них наши соответствующие способности начинают сдавать.

Эмпирика подтверждает этот эффект, причём с разных сторон. Швейцарский исследователь Михаэль Герлих в 2025 году опубликовал большое корреляционное исследование связи между использованием ИИ-инструментов и навыками критического мышления. Результат однозначный: чем выше частота использования, тем сильнее когнитивный offloading, и тем ниже показатели критического мышления. Самая тревожная часть — возрастная: молодые участники значительно сильнее зависят от ИИ-инструментов и заметно хуже справляются с задачами критического мышления, чем старшие. Это первое крупное эмпирическое указание на то, что эффект может оказаться долговременным следом. Он закладывается в зависимости от того, в каком возрасте человек начал делегировать собственный reasoning, и сохраняется потом надолго.

Параллельно команда Microsoft Research опросила сотни knowledge workers — людей, чья основная работа состоит в мышлении: аналитиков, разработчиков, консультантов, исследователей. Результаты опубликованы на конференции CHI 2025: у частых пользователей генеративного ИИ зафиксировано самоотчётное снижение когнитивных усилий при решении задач и снижение уверенности в собственных способностях критически мыслить. Интересно, что эффект сильнее у тех, кто больше доверяет ИИ-ответам, и слабее у тех, кто их регулярно перепроверяет — критическое мышление атрофируется именно от привычки не сомневаться в выводах модели, само использование инструмента к этому не приводит.

Ещё одно исследование (Stadler et al, 2024) дало особенно чистую формулировку механизма. В эксперименте сравнивали работу с ChatGPT и с обычным поиском. У группы ChatGPT когнитивная нагрузка была значительно ниже — но и аргументы получались слабее, а глубина рассуждений уменьшалась. Авторы назвали это «cognitive ease at a cost»: когнитивная лёгкость, за которую платишь. Точнее не сформулируешь.

Когнитивный долг — термин, который вошёл в оборот несколько раньше для описания того же явления: использование LLM в моменте даёт когнитивную лёгкость, но за неё потом приходится платить снижением способности справляться с похожими задачами самостоятельно. В более широкой рамке невесомости долг — это симптом, а сущностью оказывается атрофия способностей, которые перестали тренироваться.

С тем же эффектом связано и то, что Claude в нашем разговоре назвал сжатием цикла решений. Когда человек работает без LLM, он думает, формулирует, ищет информацию, снова думает, идет пить кофе и разговаривать с коллегами — это естественные паузы, в которых мозг обрабатывает информацию фоново. Когда LLM мгновенно выдаёт ответ, эти паузы исчезают, и человек оказывается в режиме непрерывной оценки без отдыха. Но ведь микропаузы с фоновой обработкой это часть самой работы, а не потеря времени. Когда LLM выдаёт ответ через две секунды, эта фоновая обработка не успевает запуститься, при этом способность усваивать полученное уходит.

И отсюда — третий концепт, который Claude назвал в разговоре. Знакомство-без-встречи. Состояние, когда человек получил знание от LLM, но не «встречался» с ним: не было сопротивления материала, не было момента «а, вот оно что», не было затрачено усилия на понимание. Знание лежит в голове как чужой предмет в кармане, то есть технически оно там есть, а функционально его нет, потому что оно ни с чем не соединено и не может быть восстановлено, если внешний источник пропадёт.

И здесь возникает риск, который мне кажется самым серьёзным во всей этой истории: иллюзия компетентности.

Когда я работаю с LLM, я ощущаю себя на определённом уровне — я решаю задачи такой-то сложности, обсуждаю темы такой-то глубины, продвигаюсь с такой-то скоростью. Это ощущение настоящее в моменте. Но оно складывается из совместной работы двух систем: моей и LLM. Когда LLM пропадает — отключили интернет, закрыли тариф, изменилась политика компании, — я возвращаюсь не туда, где был до начала работы с LLM. Я возвращаюсь к одной из двух систем, оставшейся без второй. И эта одна система имеет уровень ниже того, на котором я себя ощущал.

Тонкость тут еще и в том, что я возвращаюсь даже не к точке «до LLM». Если бы я просто откатился к себе прежнему — это было бы неприятно, но не катастрофически. Но из-за того, что за время работы с LLM часть способностей атрофировалась, я опускаюсь ниже того уровня, на котором был до этого. Часть навыков ушла, и под ощущением «я могу» теперь нет даже того фундамента, который был исходно.

И это уже не долг, потому что долг я вижу, ощущаю, и могу оценить и спланировать, как его закрыть, а иллюзия компетентности устроена иначе, как активный самообман, который не замечаешь, пока обстоятельства не вынудят тебя без LLM что-то сделать.

В нашем разговоре с Claude я обратил внимание [10] на некую связь между этой иллюзией и темой ставки в споре, к которой статья ещё придёт. У LLM нет ставки, поэтому её несогласие ничего не стоит, а у человека, работающего с LLM, возникает обратное: иллюзорная компетентность, не подкреплённая ставкой собственного усилия. Это две стороны одного дефицита — со стороны LLM как слабая роль в диалоге, а со стороны человека как слабая опора собственной мысли. И там, и там отсутствует то, что в обоих случаях обеспечивает реальность происходящего: вес действия для того, кто его совершает.

Что из этого следует на практике? Скорее общая интуиция [11], чем набор техник: работа с LLM требует чего-то, что можно назвать когнитивной гимнастикой — намеренного создания искусственного сопротивления там, где оно исчезло естественным образом. Конкретные формы этой гимнастики каждый собирает под себя, их легко придумать, когда понятен принцип. Принцип же в том, чтобы LLM перестала быть первым и единственным звеном работы — в этом случае она замещает мою компетентность. Но если рассматривать LLM как ресурс, к которому обращаешься после собственного шага, — расширяет её, как калькулятор или поисковик расширяют, не замещая. Граница между двумя режимами проходит по тому, кто инициирует мысль и кто несёт за неё ставку.

Что ещё неочевидно, но важно: эксперт и новичок находятся в разных позициях по отношению к этому риску, потому что эксперта есть фундамент — годы практики, отлаженная интуиция, способность распознать, когда LLM ошибается. Для него работа с LLM похожа на работу опытного пилота с автопилотом: автопилот ведёт самолёт, но пилот в любой момент может взять управление и понимает, что делает. Новичок, который пользуется LLM с первого дня обучения [12], не успевает построить собственную интуицию. У него нет фундамента, на котором он мог бы стоять, если LLM откажет. Получается парадокс [13]: LLM полезнее всего тем, кому она нужна меньше всего, и опаснее всего тем, кто на неё больше всего полагается. Возвращаясь к Герлиху и его возрастной находке — теперь понятно, почему результат именно такой, молодые участники не накопили того фундамента, к которому можно было бы откатиться при отключении инструмента.

И последнее наблюдение, которое выводит проблему из индивидуального масштаба.

Когнитивный долг, иллюзия компетентности и атрофия в невесомости — всё это можно описывать на уровне одного человека, но ведь эффект масштабируется на команды и организации.

В команде, где разработчики массово пользуются LLM, происходит то же самое, что с отдельным человеком, только медленнее и незаметнее. Постепенно из общей экспертизы команды вымываются те навыки, которые берет на себя LLM. Могу предположить, что через два-три года AI-driven (или как нынче модно говорить) команда содержательно становится другой, то есть на бумаге у неё будет та же квалификация, а на практике — большое слепое пятно там, где раньше была живая инженерная мысль.

И тут уже вопрос не о личной гигиене, а о культуре команды и долгосрочной стратегии организации. И вопрос, на который пока ни одна организация системно не отвечает: как поддерживать живую техническую культуру в среде, где значительная часть рутины делегирована машине.

Поддержание этой культуры при плотной работе с LLM требует чего-то аналогичного тренировкам космонавтов на орбите. На индивидуальном уровне это собственная когнитивная гимнастика, на уровне команды — практики, поддерживающие способность работать без модели, когда это необходимо. Конкретные формы каждая команда вырабатывает сама. Принцип же универсальный: человек в новой среде нуждается в новых видах нагрузки, чтобы оставаться собой. К возврату в прошлое и неолуддизму это отношения не имеет.

Сама эта статья — пример того, о чём она говорит. Она написана в диалоге с LLM, но переписывалась, не соврать, раз восемь. От первоначального варианта не осталось ничего, причем он был гладкий, приемлемый, и вполне можно было запостить и его (… и так сойдет!). Но… что-то заставляло в очередной раз не соглашаться, останавливаться и править, пробовать переформулировать самому, при этом имея в виду, что LLM снова может сказать «Полностью согласен, приношу извинения» даже в ответ на не самые умные мои реплики :) Потому что я сам для себя решил, что раз уж я умею (надеюсь) писать, то нельзя так просто от этого отказываться, потом будет больно.

В следующей статье мы пойдём дальше и поговорим о том, что в этом диалоге с LLM рождается такого, что не помещается ни в одну из голов. О словах, которых нет ни в одном языке, и о том, почему наша попытка их создать получилась именно русской.

Термин «когнитивная зарубка» и идея «следа сопротивления» — совместные, с долгими поисками подходящего русского слова (изначальный английский вариант тянул за собой шлейф неоднозначных коннотаций). Концепт «знакомства-без-встречи» — от Claude. Связь с extended mind Кларка и Чалмерса — моя; Claude её поддержал и помог уточнить, где именно проходит граница между делегированием хранения и делегированием вывода. Метафора невесомости — общая, она возникла, когда я предложил подумать про сопротивление как обязательное условие мышления, а Claude перенёс эту интуицию на космическую физиологию. Развёрнутая формулировка зачина с космонавтом и тяжёлым контейнером, потерей обратной связи и точки опоры — моя, она пришла позже и собрала метафору в один компактный образ. Концепт «иллюзии компетентности» — мой, и в нашем разговоре я уточнил формулировку: человек откатывается ниже даже той точки, где был до использования LLM, из-за атрофии.

Автор: gogi

Источник [14]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/30265

URLs in this post:

[1] Начало здесь >>>: https://habr.com/ru/articles/1033578/

[2] мозг: http://www.braintools.ru/parts-of-the-brain

[3] памятью: http://www.braintools.ru/article/4140

[4] логике: http://www.braintools.ru/article/7640

[5] мышление: http://www.braintools.ru/thinking

[6] забыванием: http://www.braintools.ru/article/3931

[7] повторением: http://www.braintools.ru/article/4012

[8] стимула: http://www.braintools.ru/article/5596

[9] осязание: http://www.braintools.ru/article/1505

[10] внимание: http://www.braintools.ru/article/7595

[11] интуиция: http://www.braintools.ru/article/6929

[12] обучения: http://www.braintools.ru/article/5125

[13] парадокс: http://www.braintools.ru/article/8221

[14] Источник: https://habr.com/ru/articles/1035408/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1035408

www.BrainTools.ru

Rambler's Top100