- BrainTools - https://www.braintools.ru -
Как мозг [1] защищает убеждения вместо поиска истины и почему «давайте подумаем ещё раз» не работает
Представьте эксперимент. Перед участниками таблица с данными об эффективности нового крема от сыпи. Цифры требуют внимания [2]: нужно учесть базовые пропорции, не ошибиться с направлением эффекта. Люди с высокой числовой грамотностью справляются лучше, что логично [3].
На втором этапе исследователи берут те же самые цифры и переименовывают строки. Теперь это данные о влиянии законов о контроле над оружием на уровень преступности. И…
Числовая грамотность перестаёт помогать. Более того — она начинает работать против. Люди с высокими математическими способностями теперь интерпретируют одни и те же данные в пользу своих политических убеждений точнее и изощрённее, чем люди с низкими способностями.
Так эксперимент Кахана и коллег[7] [4] описывает явление которое называется “мотивированное отрицание” (motivated denial).
Речь идёт не о когнитивной неспособности обработать информацию. А о том, что мозг активно использует аналитический аппарат для защиты убеждений, а не для их проверки. И чем этот аппарат мощнее, тем эффективнее защита.
Долгое время в науке [5] доминировала «модель информационного дефицита» (knowledge deficit model [6]): если предоставить человеку достаточно верифицированных данных и логических аргументов, его убеждения скорректируются в сторону реальности[5] [7]. Интуитивно привлекательная идея, но в значительной степени ошибочная.
Данные нейровизуализации, обобщённые в обзоре Эбрахими, показывают: когда человек сталкивается с утверждением, потенциально угрожающим его убеждениям, активируются не только зоны анализа информации. Активируются дефолтная сеть и вентромедиальная префронтальная кора — структуры, ответственные за самовосприятие, социальную идентичность и групповую принадлежность[3] [8].
Мозг обрабатывает угрозу убеждению так же, как угрозу себе.
Дальше — ещё интереснее. Конфликт [9] между новой информацией и существующим убеждением активирует переднюю поясную кору (зона детекции конфликта) и островковую долю (зона, связанная с физическим дискомфортом)[3] [8]. Это буквально неприятно — на уровне нейронных сигналов.
Когда уровень угрозы идентичности достаточно высок, амигдала — центр обработки страха — интерпретирует символическую угрозу убеждениям как физическую. Мозг переключается из режима «поиска истины» в режим «защиты периметра». Успешное разрешение диссонанса требует высокой сохранности исполнительных функций фронтальной коры. Если же эмоциональный ответ слишком интенсивен, он подавляет аналитический[3] [8].
Мозг стремится снять напряжение. Самый быстрый способ — не изменить убеждение, а переинтерпретировать или отвергнуть угрожающую информацию.
Согласно теории двойного процесса, информация сначала проходит через быстрый, автоматический, эмоционально окрашенный канал (Систему 1). Этот канал уже нагружен личными ценностями, групповой идентичностью и предыдущим опытом [10]. Только потом, если первый фильтр пропустил информацию, включается медленный аналитический режим (Система 2)[3] [8].
Аналитическое мышление [11] включается уже после того, как идентичность оценила угрозу. Это не помощник в поиске истины — это адвокат защиты для уже вынесенного приговора[2, [12] 3] [8].
С точки зрения [13] эволюционной психологии, это не баг, а фича. Быть «правым» в одиночку для нашего предка было менее выгодно, чем «ошибаться вместе со своим племенем». Групповая идентичность обеспечивала выживание. Мозг выработал механизмы переинтерпретации реальности: мы бессознательно фильтруем данные так, чтобы они соответствовали ценностям нашей референтной группы[1] [14]. Отрицание — это не игнорирование, а активная нейронная работа по защите целостности личности.
Проблема в том, что этот механизм эволюции перенесён в контекст, где истина имеет последствия.
Практическое значение: Это означает, что разговор об отрицании нужно вести не в категориях «глупости» или «злого умысла», а в категориях физиологии. Когда человек отвергает неудобный факт, вероятно, он не притворяется и не лжёт намеренно — его мозг буквально испытывает дискомфорт и ищет кратчайший путь к его снятию. Понимание этого меняет и то, как мы должны доносить информацию, и то, как мы должны реагировать [15] на чужое отрицание: не с раздражением, а с пониманием того, что наблюдаем нормальную работу нормального мозга в ненормальных условиях
Если отрицание — это механизм защиты идентичности, что происходит с людьми, которые умеют думать особенно хорошо?
Они защищают идентичность особенно эффективно.
Льюандовски и Обераур в обзоре 2016 года «Motivated Rejection of Science» приводят данные, которые кажутся контринтуитивными[1] [14]. С 1970-х по 2010 год в США шло постепенное расхождение в уровне доверия к науке между либералами и консерваторами. В начале 1970-х различий почти не было. К 2010 году разрыв стал значительным: либералы сохраняли доверие к научному сообществу, консерваторы — снижали.
Точка расхождения совпадает с появлением массива научных данных, угрожающих идее нерегулируемого свободного рынка: данных о вреде табака, об изменении климата, о рисках промышленного загрязнения[1] [14]. Наука не стала хуже. Она стала политически неудобной для одной из сторон.
Но самое поразительное — что происходит с уровнем образования внутри каждой группы. Среди либералов рост образования коррелирует с ростом принятия климатической науки. Среди консерваторов — рост образования коррелирует со снижением принятия[1] [14]. Та же закономерность воспроизводится для вакцин.
Образование не нейтрализует мотивированное отрицание. Оно даёт человеку более совершенный инструментарий для его реализации.
Авторы подчёркивают принципиальную деталь: предиктором выступает мировоззрение, а не уровень образования[1] [14]. Люди, придерживающиеся иерархических и индивидуалистических взглядов, статистически чаще отвергают исследования, предполагающие необходимость коллективных действий или государственного регулирования. Когда научные выводы угрожают этим установкам, индивиды начинают оспаривать не данные, а нормы производства научного знания:
Вместо обсуждения данных — заявления о финансовой ангажированности учёных («грантовая зависимость»).
Научный метод оперирует вероятностями — мотивированное отрицание требует абсолютных доказательств, превращая нормальный скептицизм в непробиваемую защитную стену[1] [14].
Интеллект [16] в этой схеме выступает не в роли судьи, ищущего истину, а в роли адвоката, нанятого для защиты уже принятого эмоционального решения[1, [14]2] [12]. Например: вспомните любое совещание, где квалифицированные специалисты часами обосновывают уже принятое руководством решение — с графиками, моделями и логикой.
Практическое значение: если вы хотите убедить умного человека в том, что угрожает его идентичности, дополнительные аргументы и данные не просто бесполезны — они контрпродуктивны. Чем сильнее аргумент, тем мощнее активируется защита. Это означает, что стратегия «давайте объясним им ещё раз, только подробнее» — одна из самых популярных и одна из самых неэффективных в истории человеческой коммуникации.
До 2023 года в когнитивной науке доминировала гипотеза «мотивированного мышления второго порядка» (Motivated System 2 Reasoning, MS2R). Она утверждала: когда человек думает интенсивнее, он лучше защищает свою политическую идентичность. Республиканцы, которые думают дольше, лучше отвергают климатическую науку. Демократы, которые думают дольше, лучше её принимают. Политическая принадлежность — главный двигатель.
Баго, Рэнд и Пеннкук решили проверить это экспериментально[2] [12].
Они набрали 1007 и 1266 участников (два независимых исследования), квотированных по возрасту, полу, этничности и географии (относительно американской популяции). Участникам давали аргументы за и против антропогенного изменения климата — политически нейтральные, без упоминания партий[2] [12].
Ключевой манипуляции подверглась когнитивная нагрузка: часть участников должна была одновременно удерживать в памяти [17] визуальный паттерн точек в сетке и отвечать на вопросы в течение 28 секунд. Это физически ограничивало способность к развёрнутому анализу. Другая группа отвечала без ограничений[2] [12].
Результат не подтвердил, а скорее опроверг MS2R.
Когда исследователи контролировали предшествующие личные убеждения участника (не политическую принадлежность, а именно личные убеждения о климате), эффект политической идентичности исчезал[2] [12]:
Взаимодействие партийность × тип аргумента × режим ответа: b = 1.09, p = 0.770 (исследование 1), b = −1.27, p = 0.790 (исследование 2) — статистически незначимо.
Взаимодействие личные убеждения × тип аргумента × режим ответа: b = −16.23, p < 0.0001 (исследование 1), b = −14.12, p = 0.0007 (исследование 2) — очень сильный эффект.
На практике это означает, что республиканец, который сам верит в изменение климата, при интенсивном мышлении будет отвергать противоположные аргументы так же, как демократ. И наоборот.
Дело не в политическом лагере. Дело в том, во что человек уже верит[2] [12].
Более интенсивное мышление делает людей более когерентными со своими предшествующими убеждениями[2] [12]. Умный человек с ложными исходными убеждениями будет удаляться от истины быстрее, чем менее аналитичный человек с теми же ложными убеждениями.
Практическое значение: Если вы хотите, чтобы человек иначе обработал новые данные, недостаточно убрать политические триггеры из коммуникации — нужно сначала изменить то, во что он уже верит. Это долгий и нелинейный процесс. Но именно он определяет направление, в котором аналитика будет работать при следующем столкновении с неудобной информацией.
Хальтиннер, Саратчандра и Птак в 2021 году сделали методологически нетривиальный ход: они решили изучить не «верующих против скептиков», а скептиков между собой[4] [18].
1000 жителей Тихоокеанского Северо-Запада США, все — самоидентифицированные скептики изменения климата. Репрезентативная выборка по полу и образованию.
Первый неожиданный результат: скептики — не монолитная антиэкологическая группа[4] [18].
69% обеспокоены пластиком в океанах. 63% — исчезновением пчёл [19]. 62% — загрязнением воздуха. 61% — качеством питьевой воды. 70% поддерживают сохранение национальных парков, 63% — федеральные ограничения на сброс токсичных химикатов, 56% — налоговые льготы для установки возобновляемой энергетики[4] [18].
Это люди, которые отрицают антропогенное изменение климата, но при этом в большинстве своём выражают серьёзную озабоченность экологическими проблемами.
Затем исследователи разделили выборку по одному критерию: считает ли человек изменение климата “намеренным заговором” или просто не соглашается с научным консенсусом по другим причинам.
Разрыв оказался разительным[4] [18]: конспирологический скептик на 33.4 п.п. меньше поддерживает инвестиции в ветряную энергетику, на 26.4 п.п. меньше поддерживает преподавание климатической науки в школах, на 31.2 п.п. больше поддерживает выход из Парижского соглашения[4] [18].
Вывод авторов: убеждение в заговоре — это не более интенсивная версия скептицизма, а отдельный психологический конструкт[4] [18]. Он системно блокирует просоциальное поведение [20] и сужает готовность к любому компромиссу. Среди всей выборки скептиков только 25% верили в заговор — но именно они доминировали в медийном образе «климатического отрицателя».
Механизм здесь особенный: когда скептик-конспиролог сталкивается с неопровержимым доказательством, мозг не корректирует модель реальности — он интегрирует этот факт в теорию заговора[4] [18]. Если данные нельзя опровергнуть логически, отрицается честность всей системы их сбора. Отрицание превращается в самоподдерживающуюся систему, неуязвимую для внешних эмпирических данных.
Практическое значение: «скептик» — не монолитная категория, и работать с ним нужно иначе в зависимости от того, какой именно тип скептицизма перед вами. Человек, не согласный с научным консенсусом по рациональным или ценностным причинам, потенциально открыт к диалогу — особенно если найти точки пересечения интересов, которых, как показывает исследование, неожиданно много. Конспиролог закрыт системно: любой факт будет встроен в теорию, а не использован для её проверки. Смешивать эти два типа в одну аудиторию и разговаривать с ними одинаково — значит гарантированно проиграть с обоими.
Ким, Лю и Хэмсли в 2025 году проанализировали 44 989 комментариев с 30 YouTube-видео — 15 поддерживающих климатическую науку и 15 отрицающих её[6] [21]. LLM-аннотатор (GPT-4o-mini) классифицировал каждый комментарий по 10 тематическим категориям с согласованностью Cohen’s κ = 0.84 — высокая надёжность разметки. Затем строился сетевой анализ взаимодействий.
Регрессионная модель смешанных эффектов показала[6] [21]:
Комментарии о государственной политике генерировали значимо меньше взаимодействий (β = −0.039, p = .039)
Комментарии о природных циклах — тоже (β = −0.038, p = 0.048)
Базовой категорией сравнения была дезинформация и именно она генерировала наибольший отклик
Неожиданный результат: тип видео не предсказывал уровень взаимодействия (β = −0.013, p = 0.356)[6] [21]. «За» или «против» изменения климата — не имело значения для активности комментаторов. Имело значение только содержание самого комментария.
Интерпретация такова: темы, по которым внутри идеологической группы уже достигнут консенсус, функционируют как сигналы принадлежности — они не приглашают к дискуссии, они маркируют «своих»[6] [21]. Дезинформация работает иначе: она угрожает идентичности оппонента и поэтому провоцирует ответ.
Дезинформация вирусится не потому, что убедительна. Она вирусится потому, что раздражает[6] [21].
Практическое значение: алгоритмы платформ оптимизированы под вовлечённость, а вовлечённость максимальна там, где контент угрожает идентичности. Это не заговор и не случайность [22], а прямое следствие нейробиологии, описанной в части 1. Система работает именно так, как устроен мозг. Пока метрикой успеха остаётся «охват», у дезинформации будет структурное преимущество перед взвешенным и точным сообщением.
Менды, Карлссон и Линдваль провели систематический обзор 65 рецензируемых статей о противодействии климатическому отрицанию (2008–2021)[5] [7].
Что не работает:
Простая передача информации — эффект непоследователен[5] [7]. Мотивированное мышление продолжало искажать восприятие [23] даже у людей, получивших корректную информацию. Коррекция ложных утверждений повышает фактическую точность ответов, но не меняет общих убеждений[5] [7]. Дебаты с убеждёнными отрицателями легитимизируют позицию оппонента: сам факт дебатов сигнализирует аудитории, что по этому вопросу есть две равнозначные стороны[5] [7]. Общая научная грамотность, как уже показано, усиливает поляризацию по групповым линиям[1] [14].
Что работает:
Иммунизация[5] [7]. Вместо того чтобы опровергать уже сложившееся ложное убеждение, человеку заблаговременно показывают ослабленную версию дезинформации вместе с объяснением её риторических механизмов. Понимание того, как «профессиональные торговцы сомнением» искажают консенсус, формирует когнитивный иммунитет. Мозг идентифицирует дезинформацию не как «альтернативное мнение», а как «попытку взлома». Эффект сохраняется от одной недели (и до 2–3 месяцев при повторных «бустерных» воздействиях).
Рефрейминг через ценности аудитории[3, [8] 5] [7]. Фрейм национальной безопасности и экономической выгоды нейтрализовал эффект дезинформации эффективнее, чем традиционный фрейм экологического риска. Смена словаря с «налога» на «компенсацию» повышала готовность платить за углеродные выбросы. Содержание то же — упаковка другая. Если для целевой группы свободный рынок является терминальной ценностью, аргументация должна строиться через «инновации и новые рынки», а не через «ограничения».
Доверенный источник из «своей» группы[5] [7]. Евангелический учёный-климатолог значимо менял убеждения студентов-евангелистов. Военные источники меняли убеждения консерваторов — но этот эффект не всегда транслировался в поддержку конкретных политических мер. Источник должен быть воспринят как «один из нас», иначе информация отфильтровывается на первом же этапе.
Визуализация угроз[5] [7] работает вне зависимости от политических убеждений — в отличие от большинства других методов.
Участие и совместное создание[5] [7]. Когда люди сами участвуют в генерации выводов — через местные проекты, совместное обсуждение, опыт в реальном контексте — барьеры снижаются. Это не упрощение, это изменение коммуникации с одностороннего вещания на диалог.
Практическое значение: Общий знаменатель всех работающих методов — один: они не атакуют убеждение напрямую, а меняют контекст, в котором информация воспринимается. Иммунизация меняет фрейм восприятия до столкновения с дезинформацией. Рефрейминг меняет упаковку так, чтобы факт не активировал защиту. Доверенный источник снимает сигнал «чужой». Во всех случаях цель одна — провести информацию мимо фильтра идентичности, а не пробить его силой. Это требует больше усилий, чем публикация очередного опровержения. Но зато работает.
Мотивированное отрицание — универсальный когнитивный механизм[1, [14] 3] [8]. Климатические исследования дают особенно богатую базу для его изучения: есть чёткий научный консенсус, измеримое отклонение от него, данные в динамике. Но сам механизм воспроизводится везде, где информация угрожает идентичности.
В корпоративной среде это выглядит, например, так:
Команда разработки получает результаты пользовательского тестирования, показывающие серьёзные проблемы с продуктом — первая реакция не анализ данных, а поиск методологических недостатков в исследовании.
Совет директоров видит первые сигналы о том, что рынок разворачивается — следующий квартал посвящён обоснованию того, почему сигналы следует игнорировать.
Руководитель получает обратную связь о своём стиле управления — энергия уходит на объяснение, почему команда не права.
Вывод из эксперимента Баго и коллег здесь особенно практически значим: «давайте проведём ещё один анализ» — неэффективная стратегия, если предшествующие убеждения участников не изменились[2] [12]. Более глубокое коллективное мышление в этом случае лишь производит более изощрённые рационализации уже принятых решений.
Небольшие интерпретационные расхождения в начале, подкреплённые групповыми сигналами, со временем углубляются в устойчивую поляризацию[3] [8]. Два аналитика в одной команде, получившие доступ к одним данным, через полгода могут прийти к принципиально противоположным выводам — если изначально имели разные prior beliefs и находились в разных информационных микросредах внутри компании.
Из того, что следует из исследований и работает на практике: анонимизация данных перед обсуждением снижает активацию идентичности — человек оценивает цифры, не зная, чья это идея[3] [8]. Внешний аналитик из «доверенной» субкультуры работает эффективнее, чем внутренний критик — потому что не несёт угрозы групповой идентичности[5] [7]. А предварительное знакомство команды с механикой мотивированного отрицания — своего рода корпоративная «иммунизация»[5] [7] — снижает вероятность его бессознательного воспроизведения при столкновении с неудобными данными. Не потому что люди вдруг становятся объективнее, а потому что они начинают замечать у себя характерные симптомы — желание срочно дискредитировать источник, искать методологические изъяны, требовать «ещё один раунд анализа».
Изменить prior beliefs людей — долгий процесс[2] [12]. Но именно он определяет, в каком направлении будет работать их аналитический аппарат при столкновении с новой информацией.
Практическое значение: Всё описанное выше — не абстрактная академическая проблема. Это описание того, что происходит на каждом совещании, где обсуждаются неудобные данные, в каждой команде, где есть сложившиеся иерархии и ролевые идентичности, в каждой организации, которая однажды решила, что она знает, как устроен её рынок. Мотивированное отрицание — не слабость конкретных людей, а системное свойство любой группы, у которой есть что терять от правды. Признать это — первый и самый трудный шаг к тому, чтобы принимать решения на основе реальности, а не её удобной версии.
Мотивированное отрицание — не дефект и не патология. Это адаптивный механизм мозга, эволюционно оправданный: социальная принадлежность исторически была вопросом выживания[1, [14] 3] [8]. Готовность пересмотреть убеждения группы ради абстрактной «истины» могла иметь реальную цену.
Проблема в том, что этот механизм перенесён в контекст, где истина имеет последствия.
Данные не нейтральны для мозга. Они всегда сначала проходят через фильтр «угрожает ли это тому, кто я есть»[3] [8]. И чем лучше человек умеет думать, тем изощрённее этот фильтр работает[1, [14] 2] [12]. Понимание этого меняет не только вопрос — с «почему они не принимают факты» на «какие prior beliefs нужно изменить, чтобы факты были услышаны» — но и инструменты: вместо «давайте убедим аргументами» — «давайте выберем правильного человека, правильный фрейм и правильный момент»[5] [7].
Единственный способ не стать заложником собственного «умного отрицания» — это мониторинг собственных реакций на «неудобную» информацию. Когда факты вызывают у вас желание немедленно найти изъян в методологии или дискредитировать источник — это главный сигнал того, что ваша система защиты только что включилась.
И последний вопрос — уже к вам: есть ли в вашей профессиональной жизни область, где вы особенно активно ищете изъяны в данных, которые вам не нравятся?
Если ответ пришёл быстро — возможно, это и есть ваша зона мотивированного отрицания.
Источники:
Lewandowsky S., Oberauer K. (2016). Motivated Rejection of Science [14]. Current Directions in Psychological Science, 25(4), 217–222
Bago B., Rand D.G., Pennycook G. (2023). Reasoning about climate change [12]. PNAS Nexus
Ebrahimi E. (2026). Climate Change Denial as Identity Defence [8]. Environmental Management
Haltinner K., Sarathchandra D., Ptak T. (2021). How Believing That Climate Change Is a Conspiracy Affects Skeptics’ Environmental Attitudes [18]. Environment: Science and Policy for Sustainable Development, 63(3), 25–33
Mendy L., Karlsson M., Lindvall D. (2024). Counteracting climate denial: A systematic review [7]. Public Understanding of Science
Kim Y., Liu Q., Hemsley J. (2025). LLM-Supported Content Analysis of Motivated Reasoning on Climate Change [21]. ASIS&T Annual Meeting 2025
Kahan, D.M., Peters, E., Dawson, E.C., & Slovic, P. (2017). Motivated Numeracy and Enlightened Self-Government [4]. Behavioural Public Policy, Vol. 1(1), pp. 54–86
Автор: la__vita__felice
Источник [24]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/27031
URLs in this post:
[1] мозг: http://www.braintools.ru/parts-of-the-brain
[2] внимания: http://www.braintools.ru/article/7595
[3] логично: http://www.braintools.ru/article/7640
[4] [7]: https://doi.org/10.1017/bpp.2016.2
[5] науке: http://www.braintools.ru/article/7634
[6] knowledge deficit model: https://en.wikipedia.org/wiki/Information_deficit_model
[7] [5]: https://www.researchgate.net/publication/377563255_Counteracting_climate_denial_A_systematic_review
[8] [3]: https://www.researchgate.net/publication/399119657_Climate_Change_Denial_as_Identity_Defence_Understanding_Resistance_Beyond_Ignorance
[9] Конфликт: http://www.braintools.ru/article/7708
[10] опытом: http://www.braintools.ru/article/6952
[11] мышление: http://www.braintools.ru/thinking
[12] [2,: https://academic.oup.com/pnasnexus/article/2/5/pgad100/7147350
[13] зрения: http://www.braintools.ru/article/6238
[14] [1]: https://www.researchgate.net/publication/306049635_Motivated_Rejection_of_Science
[15] реагировать: http://www.braintools.ru/article/1549
[16] Интеллект: http://www.braintools.ru/article/7605
[17] памяти: http://www.braintools.ru/article/4140
[18] [4]: https://www.researchgate.net/publication/351334994_How_Believing_That_Climate_Change_Is_a_Conspiracy_Affects_Skeptics
[19] пчёл: http://workbee.ru/
[20] поведение: http://www.braintools.ru/article/9372
[21] [6]: https://www.researchgate.net/publication/395125404_LLM-Supported_Content_Analysis_of_Motivated_Reasoning_on_Climate_Change
[22] случайность: http://www.braintools.ru/article/6560
[23] восприятие: http://www.braintools.ru/article/7534
[24] Источник: https://habr.com/ru/articles/1009564/?utm_campaign=1009564&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.