Когнитивная зарубка: Что мы теряем, работая с LLM, и при чём здесь невесомость. llm.. llm. Будущее здесь.. llm. Будущее здесь. искусственный интеллект.. llm. Будущее здесь. искусственный интеллект. когнитивная нагрузка.. llm. Будущее здесь. искусственный интеллект. когнитивная нагрузка. когнитивный долг.. llm. Будущее здесь. искусственный интеллект. когнитивная нагрузка. когнитивный долг. критическое мышление.. llm. Будущее здесь. искусственный интеллект. когнитивная нагрузка. когнитивный долг. критическое мышление. научно-популярное.. llm. Будущее здесь. искусственный интеллект. когнитивная нагрузка. когнитивный долг. критическое мышление. научно-популярное. продуктивность.. llm. Будущее здесь. искусственный интеллект. когнитивная нагрузка. когнитивный долг. критическое мышление. научно-популярное. продуктивность. философия ии.

Вторая статья из цикла «Слова, которых нет»

Начало здесь >>>

Знакомая ситуация: сидишь над задачей, что-то не складывается, спрашиваешь LLM. Получаешь хороший ответ, копируешь решение, всё работает. А через час к тебе подходит коллега: «А это вообще как устроено? Почему ты именно так сделал?», и тут ты обнаруживаешь, что объяснить не можешь: решение работает, оно у тебя в проекте, но ты не помнишь его логики. Открываешь чат, перечитываешь — и как будто чужой текст перед глазами, знание прошло через тебя, но в тебе не задержалось.

Это, наверное, самый частый и самый недообсуждаемый эффект работы с LLM. Все спорят про качество генерации и сэкономленное время, но упускают из виду важный момент: мы стали путать выданный ответ с усвоенным знанием. За пару минут в чате мы получаем готовое решение, полностью минуя этап интеллектуального напряжения. А там, где не было этого напряжения, мысли просто не за что зацепиться — она пролетает транзитом, не задерживаясь.

Возникает состояние когнитивной невесомости: космонавт на орбите тоже может одним пальцем сдвинуть тяжёлый контейнер, потому что у того пропал вес, но без гравитации тело лишается привычной обратной связи, и мозг перестаёт понимать, где верх, а где низ, не может рассчитать усилие и теряет точку опоры (а со временем из-за этого начинает сдавать и физически). С LLM мы попадаем в похожую ловушку — легко жонглируем сложными кусками кода или текста, но не чувствуем их веса. Действие совершается, но из-за отсутствия сопротивления мы перестаём «осязать» саму задачу, поэтому она и не оставляет в нас никакого следа.

К теме невесомости мы ещё вернёмся. Пока — другое наблюдение, с которого имеет смысл начать.

С одной стороны, любому, кто работал с LLM, знакомо чувство, что её ответам трудно сопротивляться: они приходят в законченной форме, со структурой, с примерами, с аргументами. Психологически отвергнуть такой ответ сложно — если у тебя нет своей проработанной позиции, ты её просто принимаешь, и в момент принятия отказываешься от собственной работы по формированию мысли.

С другой стороны, есть вконец доставший вездесущий нейрослоп: этот текст люди отвергают, причём на уровне инстинктов — даже когда он написан грамотно, раздражение возникает раньше анализа, едва распознаешь знакомый паттерн.

Тут есть видимое противоречие: полированный ответ принимаем, нейрослоп отвергаем — хотя это один и тот же текст, генерируемый одной и той же технологией.

Claude в нашем разговоре предложил разрешение этого противоречия через позицию читателя. Когда я заказчик и у меня есть нерешённая задача, цена отказа высока, и мозг ищет причины принять предложенное. Но когда я просто читатель, то ничего не теряю, отвергнув. Объяснение хорошее, но остается неясным, почему именно паттерны нейрослопа считываются почти мгновенно, до содержательного анализа.

Мне кажется, разгадка глубже, потому что в живом человеческом тексте всегда видны следы сопротивления, местА, где автор колебался, переписывал, выбирал между двумя формулировками, отказывался от первой версии в пользу второй, пусть даже не всегда у него получилось идеально. Эти места создают рельеф, по которому читатель чувствует, что здесь автор думал, а не копипастил из чата. Текст с рельефом читается как путь — с подъёмами, спусками, поворотами, текст без рельефа — как идеально гладкая поверхность, по которой глаз скользит, не цепляясь.

В нейрослопе раздражает именно отсутствие рельефа, а не качество как таковое — текст может быть вполне грамотным, но след усилия в нём отсутствует, и это считывается мгновенно, на уровне эстетики, до всякого рассуждения о качестве.

След усилия — это и есть та самая когнитивная зарубка: след сопротивления, оставшийся в материале или в человеке. В тексте он проявляется как рельеф, в мозге — как интегрированное знание. И в нейрослопе, и в нашей собственной работе с LLM может происходить одно и то же: материал прошёл через нас, не оставив следа.

Чтобы понять, что именно тут происходит, имеет смысл вернуться на двадцать пять лет назад и посмотреть на одну философскую идею, которая внезапно обрела практическую значимость.

В 1998 году Энди Кларк и Дэвид Чалмерс опубликовали работу «The Extended Mind», в которой утверждали странную (по крайней мере, на тот момент) вещь: разум человека не ограничен черепной коробкой. Они предположили, что к разуму относится всё, что функционально его расширяет — записи, инструменты, среда. Если я записываю номер телефона в блокнот и пользуюсь им как памятью, блокнот функционально является частью моей памяти. То, что работает как память, и есть память, независимо от того, лежит ли это в нейронах или в блокноте.

Один из канонических примеров Кларка и Чалмерса — мысленный эксперимент про двух людей в Нью-Йорке, которые хотят попасть в Музей современного искусства. Первая, Инга, вспоминает адрес из головы и идёт. Второй, Отто, страдает болезнью Альцгеймера и носит с собой записную книжку, в которую заносит всё, что должен помнить, он смотрит адрес в книжке и идёт. По логике авторов, оба совершают одно и то же когнитивное действие — извлекают информацию из своей системы памяти. У Инги система внутри головы, у Отто — частично снаружи. Но функционально это одна и та же память, и считать когнитивной только биологическую часть значит произвольно проводить границу там, где её на самом деле нет.

Тогда идея вызвала много споров, но сейчас, полагаю, спорить с ней смысла нет. Мы постоянно делегируем когнитивные функции внешней среде: календарь хранит наши встречи, навигатор — карты, поисковик — факты. Это нормально и работает на расширение наших возможностей, а не на их ослабление. Кларк называл человека «прирождённым киборгом»: способность встраивать внешние инструменты в собственное мышление и есть наша главная эволюционная особенность.

Но Кларк и Чалмерс писали о делегировании хранения, поиска и вычислений по чётко заданному алгоритму. С LLM мы впервые в истории делегируем нечто другое — сам процесс вывода, reasoning, то, что нельзя восстановить, вернувшись к источнику.

Граница тут очень тонкая. Записанный в блокноте телефонный номер всегда можно прочитать заново, найденный в поисковике факт перепроверяется по той же ссылке, решённое в калькуляторе уравнение пересчитывается вручную (хотя будет сложно, я гарантирую это), и результат будет тем же. Во всех этих случаях когнитивный артефакт остаётся внешним, доступным, проверяемым. А сделанный LLM содержательный вывод — синтез, аргумент, объяснение — «открыть заново» невозможно. Если я не сделал работу синтеза сам, у меня нет ни самой мысли, ни механизма, чтобы её восстановить. Есть только текст ответа, который я могу перечитать, но мысли в нём для меня нет — потому что мысль возникает в процессе её создания, а не в её записи.

Граница тут проходит ровно по этому: делегирование хранения сохраняет нашу компетентность, тогда как делегирование самого вывода её замещает.

У интеллектуальной невесомости есть и отложенное последствие. Космонавты, проведшие месяцы на орбите, теряют костную и мышечную массу. Кости перестают наращивать плотность, мышцы атрофируются — без постоянной нагрузки тело перестаёт поддерживать то, что больше не требуется (для меня шоком было, когда я увидел, как после полугода на орбите космонавтов буквально на руках из спускаемой капсулы выносят).

Мышление устроено похоже. Оно эволюционировало в условиях постоянного когнитивного сопротивления: нужно было удерживать в голове сложные образы, выводить новое из старого, держать аргумент, пока ищешь контраргумент, бороться с забыванием, тренировать память повторением. Без всех этих форм сопротивления среды мышление, как и тело, не имеет стимула поддерживать соответствующие способности.

В этом и состоит долговременный риск интеллектуальной невесомости. В моменте мы теряем обратную связь и осязание задачи, о которых говорилось в начале, а на горизонте месяцев и лет к этому добавляется постепенная атрофия того, что без сопротивления больше не требуется поддерживать.

И здесь у метафоры есть ещё одна полезная сторона: она автоматически подсказывает правильную форму ответа. Ведь от полётов в космос никто не отказывается, и никому не приходит в голову сказать, что в космос больше ни ногой. Говорят: «в космосе нужны новые виды тренировок, которых на земле не было». Космонавты по два часа в день делают силовые упражнения на специальных тренажёрах с эластичной нагрузкой — потому что без неё кости и мышцы сдают. Это новая дисциплина, которой не было раньше, и она необходима именно потому, что человек оказался в новой среде.

Работа с LLM ставит нас в похожее положение. Прежние формы умственной нагрузки — чтение, письмо, борьба с пустой страницей, ручной перебор вариантов — раньше возникали сами собой, потому что без них работу было не сделать. Теперь они стали факультативными, и, как мышцы у космонавта, без них наши соответствующие способности начинают сдавать.

Эмпирика подтверждает этот эффект, причём с разных сторон. Швейцарский исследователь Михаэль Герлих в 2025 году опубликовал большое корреляционное исследование связи между использованием ИИ-инструментов и навыками критического мышления. Результат однозначный: чем выше частота использования, тем сильнее когнитивный offloading, и тем ниже показатели критического мышления. Самая тревожная часть — возрастная: молодые участники значительно сильнее зависят от ИИ-инструментов и заметно хуже справляются с задачами критического мышления, чем старшие. Это первое крупное эмпирическое указание на то, что эффект может оказаться долговременным следом. Он закладывается в зависимости от того, в каком возрасте человек начал делегировать собственный reasoning, и сохраняется потом надолго.

Параллельно команда Microsoft Research опросила сотни knowledge workers — людей, чья основная работа состоит в мышлении: аналитиков, разработчиков, консультантов, исследователей. Результаты опубликованы на конференции CHI 2025: у частых пользователей генеративного ИИ зафиксировано самоотчётное снижение когнитивных усилий при решении задач и снижение уверенности в собственных способностях критически мыслить. Интересно, что эффект сильнее у тех, кто больше доверяет ИИ-ответам, и слабее у тех, кто их регулярно перепроверяет — критическое мышление атрофируется именно от привычки не сомневаться в выводах модели, само использование инструмента к этому не приводит.

Ещё одно исследование (Stadler et al, 2024) дало особенно чистую формулировку механизма. В эксперименте сравнивали работу с ChatGPT и с обычным поиском. У группы ChatGPT когнитивная нагрузка была значительно ниже — но и аргументы получались слабее, а глубина рассуждений уменьшалась. Авторы назвали это «cognitive ease at a cost»: когнитивная лёгкость, за которую платишь. Точнее не сформулируешь.

Когнитивный долг — термин, который вошёл в оборот несколько раньше для описания того же явления: использование LLM в моменте даёт когнитивную лёгкость, но за неё потом приходится платить снижением способности справляться с похожими задачами самостоятельно. В более широкой рамке невесомости долг — это симптом, а сущностью оказывается атрофия способностей, которые перестали тренироваться.

С тем же эффектом связано и то, что Claude в нашем разговоре назвал сжатием цикла решений. Когда человек работает без LLM, он думает, формулирует, ищет информацию, снова думает, идет пить кофе и разговаривать с коллегами — это естественные паузы, в которых мозг обрабатывает информацию фоново. Когда LLM мгновенно выдаёт ответ, эти паузы исчезают, и человек оказывается в режиме непрерывной оценки без отдыха. Но ведь микропаузы с фоновой обработкой это часть самой работы, а не потеря времени. Когда LLM выдаёт ответ через две секунды, эта фоновая обработка не успевает запуститься, при этом способность усваивать полученное уходит.

И отсюда — третий концепт, который Claude назвал в разговоре. Знакомство-без-встречи. Состояние, когда человек получил знание от LLM, но не «встречался» с ним: не было сопротивления материала, не было момента «а, вот оно что», не было затрачено усилия на понимание. Знание лежит в голове как чужой предмет в кармане, то есть технически оно там есть, а функционально его нет, потому что оно ни с чем не соединено и не может быть восстановлено, если внешний источник пропадёт.

И здесь возникает риск, который мне кажется самым серьёзным во всей этой истории: иллюзия компетентности.

Когда я работаю с LLM, я ощущаю себя на определённом уровне — я решаю задачи такой-то сложности, обсуждаю темы такой-то глубины, продвигаюсь с такой-то скоростью. Это ощущение настоящее в моменте. Но оно складывается из совместной работы двух систем: моей и LLM. Когда LLM пропадает — отключили интернет, закрыли тариф, изменилась политика компании, — я возвращаюсь не туда, где был до начала работы с LLM. Я возвращаюсь к одной из двух систем, оставшейся без второй. И эта одна система имеет уровень ниже того, на котором я себя ощущал.

Тонкость тут еще и в том, что я возвращаюсь даже не к точке «до LLM». Если бы я просто откатился к себе прежнему — это было бы неприятно, но не катастрофически. Но из-за того, что за время работы с LLM часть способностей атрофировалась, я опускаюсь ниже того уровня, на котором был до этого. Часть навыков ушла, и под ощущением «я могу» теперь нет даже того фундамента, который был исходно.

И это уже не долг, потому что долг я вижу, ощущаю, и могу оценить и спланировать, как его закрыть, а иллюзия компетентности устроена иначе, как активный самообман, который не замечаешь, пока обстоятельства не вынудят тебя без LLM что-то сделать.

В нашем разговоре с Claude я обратил внимание на некую связь между этой иллюзией и темой ставки в споре, к которой статья ещё придёт. У LLM нет ставки, поэтому её несогласие ничего не стоит, а у человека, работающего с LLM, возникает обратное: иллюзорная компетентность, не подкреплённая ставкой собственного усилия. Это две стороны одного дефицита — со стороны LLM как слабая роль в диалоге, а со стороны человека как слабая опора собственной мысли. И там, и там отсутствует то, что в обоих случаях обеспечивает реальность происходящего: вес действия для того, кто его совершает.

Что из этого следует на практике? Скорее общая интуиция, чем набор техник: работа с LLM требует чего-то, что можно назвать когнитивной гимнастикой — намеренного создания искусственного сопротивления там, где оно исчезло естественным образом. Конкретные формы этой гимнастики каждый собирает под себя, их легко придумать, когда понятен принцип. Принцип же в том, чтобы LLM перестала быть первым и единственным звеном работы — в этом случае она замещает мою компетентность. Но если рассматривать LLM как ресурс, к которому обращаешься после собственного шага, — расширяет её, как калькулятор или поисковик расширяют, не замещая. Граница между двумя режимами проходит по тому, кто инициирует мысль и кто несёт за неё ставку.

Что ещё неочевидно, но важно: эксперт и новичок находятся в разных позициях по отношению к этому риску, потому что эксперта есть фундамент — годы практики, отлаженная интуиция, способность распознать, когда LLM ошибается. Для него работа с LLM похожа на работу опытного пилота с автопилотом: автопилот ведёт самолёт, но пилот в любой момент может взять управление и понимает, что делает. Новичок, который пользуется LLM с первого дня обучения, не успевает построить собственную интуицию. У него нет фундамента, на котором он мог бы стоять, если LLM откажет. Получается парадокс: LLM полезнее всего тем, кому она нужна меньше всего, и опаснее всего тем, кто на неё больше всего полагается. Возвращаясь к Герлиху и его возрастной находке — теперь понятно, почему результат именно такой, молодые участники не накопили того фундамента, к которому можно было бы откатиться при отключении инструмента.

И последнее наблюдение, которое выводит проблему из индивидуального масштаба.

Когнитивный долг, иллюзия компетентности и атрофия в невесомости — всё это можно описывать на уровне одного человека, но ведь эффект масштабируется на команды и организации.

В команде, где разработчики массово пользуются LLM, происходит то же самое, что с отдельным человеком, только медленнее и незаметнее. Постепенно из общей экспертизы команды вымываются те навыки, которые берет на себя LLM. Могу предположить, что через два-три года AI-driven (или как нынче модно говорить) команда содержательно становится другой, то есть на бумаге у неё будет та же квалификация, а на практике — большое слепое пятно там, где раньше была живая инженерная мысль.

И тут уже вопрос не о личной гигиене, а о культуре команды и долгосрочной стратегии организации. И вопрос, на который пока ни одна организация системно не отвечает: как поддерживать живую техническую культуру в среде, где значительная часть рутины делегирована машине.

Поддержание этой культуры при плотной работе с LLM требует чего-то аналогичного тренировкам космонавтов на орбите. На индивидуальном уровне это собственная когнитивная гимнастика, на уровне команды — практики, поддерживающие способность работать без модели, когда это необходимо. Конкретные формы каждая команда вырабатывает сама. Принцип же универсальный: человек в новой среде нуждается в новых видах нагрузки, чтобы оставаться собой. К возврату в прошлое и неолуддизму это отношения не имеет.

Сама эта статья — пример того, о чём она говорит. Она написана в диалоге с LLM, но переписывалась, не соврать, раз восемь. От первоначального варианта не осталось ничего, причем он был гладкий, приемлемый, и вполне можно было запостить и его (… и так сойдет!). Но… что-то заставляло в очередной раз не соглашаться, останавливаться и править, пробовать переформулировать самому, при этом имея в виду, что LLM снова может сказать «Полностью согласен, приношу извинения» даже в ответ на не самые умные мои реплики :) Потому что я сам для себя решил, что раз уж я умею (надеюсь) писать, то нельзя так просто от этого отказываться, потом будет больно.

В следующей статье мы пойдём дальше и поговорим о том, что в этом диалоге с LLM рождается такого, что не помещается ни в одну из голов. О словах, которых нет ни в одном языке, и о том, почему наша попытка их создать получилась именно русской.

Термин «когнитивная зарубка» и идея «следа сопротивления» — совместные, с долгими поисками подходящего русского слова (изначальный английский вариант тянул за собой шлейф неоднозначных коннотаций). Концепт «знакомства-без-встречи» — от Claude. Связь с extended mind Кларка и Чалмерса — моя; Claude её поддержал и помог уточнить, где именно проходит граница между делегированием хранения и делегированием вывода. Метафора невесомости — общая, она возникла, когда я предложил подумать про сопротивление как обязательное условие мышления, а Claude перенёс эту интуицию на космическую физиологию. Развёрнутая формулировка зачина с космонавтом и тяжёлым контейнером, потерей обратной связи и точки опоры — моя, она пришла позже и собрала метафору в один компактный образ. Концепт «иллюзии компетентности» — мой, и в нашем разговоре я уточнил формулировку: человек откатывается ниже даже той точки, где был до использования LLM, из-за атрофии.

Автор: gogi

Источник