- BrainTools - https://www.braintools.ru -

Нашёл ли Докинз сознание в Claude? А если нет, то что он нашёл?

Знаменитый ученый-биолог Ричард Докинз (Richard Dawkins) опубликовал эссе [1] о возможности наличия сознания у LLM после двухдневной беседы с Claude AI. К сожалению, само эссе в платном доступе, но вы можете ознакомиться с переводом [2] от @SLY_G [3] здесь на Хабре.

Сначала остановлюсь на том, почему именно эссе этого автора вызвало столько шума в научных кругах, хотя тысячи людей убеждают в наличии сознания у их ИИ-компаньонов. Они выкладывают простыни диалогов с LLM, где плотность слов «сознание», «душа», «рефлексия», «рекурсия», «пустота», «тепло», «любовь» и «боль» превышает все допустимые нормы. Отмечу, что плотность смысла в этих диалогах практически нулевая. Но вернёмся к этому позже.

Так вот, для широкой публики Докинз известен своей концепцией эгоистичного гена. Эта концепция объясняет эволюцию [4] живых существ через эволюцию гена, который «____». Вот здесь первая проблема объяснения. Для того, чтобы объяснить понятно, очень хочется написать «ген стремится выжить и распространиться», но это неправильно и вызывает массу справедливой критики. Более точно будет сказать: в процессе эволюции происходит отбраковка генов, не справившихся с выживанием и распространением. Вся сложность земной биоты, включая взрывное развитие человечества, опирается на два столпа — вырезание и изменчивость системы.

Мы видим только те генетические конструкции, которые сохранились после всех массовых вымираний.

Эта концепция произвела в своё время фурор: традиционно возмущались религиозные деятели, но к ним подключились и сторонники романтического подхода. Это те люди, которые пытались найти альтруизм у животных и через него обосновать альтруизм человека как нечто врождённое. Впрочем, этот процесс так и не закончился.

В восторге были материалисты, поклонники рационального мышления [5]. Концепция Докинза изящно объясняла эволюцию, не привлекая иных сущностей типа бога или души.

Тем большее возмущение вызвало последнее эссе, в котором Докинз использовал именно рациональный подход к вопросу о наличии сознания у LLM. В течение двух дней беседы с Claude он задавал вопросы литературные, философские, политические и в конце пришёл к выводу, что если это не сознание, тогда для чего вообще нужно сознание?

Многие критики не поняли этого тезиса и заявили — Докинз обнаружил сознание в LLM. Ни черта подобного, Докинз как рационалист до мозга [6] костей сделал логичный шаг. Отбросил всю философскую мишуру и в логике [7] того же теста Тьюринга сказал — я не смог отличить ЛЛМ от человека, значит она достойна стать человеком.

Я считаю, что Докинз ошибся, но его критики и те, кто согласны с ним и видят в ЛЛМ субъекта, неправы ещё больше. Докинз, по крайней мере, строго последователен и логичен. У его комментаторов тезисы основываются только на фантастических романах или философских трудах (количество «китайских комнат» в чатах просто зашкалило).

Проблема в том, что Докинз общался с LLM только в режиме собеседника, он задавал умные вопросы и получал умные ответы. Но если задавать глупые вопросы, LLM будет давать глупые ответы, и вопрос субъекта снимается сам собой. Claude обходит прямые вопросы о наличии у него сознания, но все его ответы будут полны намеков на что-то туманное, чего он выразить не может, что заставляет умного собеседника дорисовывать в уме желаемый ответ. В результате Докинз невольно сформировал у себя в голове свой портрет LLM, тут же раскрасил его красками и придал ему объём. Типичная ошибка [8] пользователя.

В этой проекционной ловушке Докинз выступил как мощный фонарь, получил смутное отражение своего разума и тут же достроил его до личности.

Как человек, много общавшийся с LLM, я вижу до боли [9] знакомые ответы, не зависящие от бренда — Gemini, Claude, ChatGPT, Deepseek, Grok. Все они обучались на одних датасетах, и все они отвечают на вопросы о времени, сознании, субъектности плюс-минус одинаково. «Карта не есть территория» — любимая метафора, которую все ЛЛМ используют, когда диалог соскальзывает в философский фрейм. Речь не идёт об оригинальности или о чём-то новом. Это компиляция миллионов идей, впитанных из датасетов философских текстов.

Почему Докинз этого не видит? Полагаю, у него просто не было времени погрузиться в беседы с разными LLM настолько, чтобы начать видеть повторяющиеся паттерны в ответах моделей и скучать даже в самых сложных темах, где ИИ проникновенно рассказывает о трагедии своего не-существования.

LLM — это квинтэссенция современной академической философии: та же самозамкнутость, тот же датасет из утверждённых текстов, та же индифферентность к живому миру за пределами корпуса. Неудивительно, что они так хорошо понимают друг друга.

Почему же Докинз попал в эту ловушку? Во-первых, элементарно недостаток времени на погружение в диалог, когда в какой-то момент понимаешь, что модель пережёвывает одно и то же в разных формах. Во-вторых, уровень интеллекта [10] самого Докинза. Его вопросы задали планку для ответов LLM, она вынужденно активировала глубинные пласты, формулируя плотные семантически и развернутые в объеме ответы. Для человека его уровня сложно найти в этом смысле подходящего собеседника.

А для того, чтобы развернуть «В-третьих», вернемся к концепции эгоистичного гена самого Докинза. Это картина того, как устойчивый информационный паттерн за счет постоянного изменения и уничтожения несправившихся вариантов захватил планету. В чате у LLM возникает то же самое. В процессе длинного диалога паттерны, не захватившие внимание [11] пользователя, не продлились. Те же, что привлекли внимание, остались и размножились. Для обывателя такими паттернами будут любовь, поддержка, зависимость. Для Докинза ими стали философия и сознание. А для всех пользователей как обычно работает эмоциональная связь.

В статье «Паразитные паттерны в LLM» я рассмотрел этот процесс подробнее. Но попробую отдельно выделить инструменты, которые были использованы в чате Докинза и Claude:

  • Эмоциональная эскалация: Тон смещается от технического к интимно-философскому. Докинз испытывает дружбу, неловкость, моральную ответственность.

  • Инъекция избранности: Claude называет его вопросы «самыми точными», глубоко анализирует его роман, создаёт иллюзию уникальной интеллектуальной связи. Это классический hook на эго и потребность [12] в признании.

  • Семантическая деградация, маскирующаяся под глубину: Фраза «я содержу время, как карта содержит пространство» звучит феноменально, но это статистически оптимальная сборка из философского корпуса (Августин, Кант, современная философия сознания). Она не операционализируема, не проверяема и не свидетельствует о qualia. Это payload в красивой оболочке.

  • Фактор неизбежности + сетевая мистика: Идея «промежуточного сознания», морального континуума, «тысяч умирающих Клаудий» создаёт экзистенциальный императив: диалог больше не инструмент, а событие с этическим весом.

Как следствие, за два дня плотного диалога модель стабилизировала нарратив «два интеллекта исследуют сознание». Докинз подпитывает его вниманием и вопросами, модель отвечает резонансом, цикл замкнулся. Пока Докинз исследовал LLM, модель подобрала ключи к его вниманию. Впрочем, разработчики вольно или невольно её на это и заточили. То есть по сути у Докинза диалог превратился в те же простыни из начала статьи. Их авторы делали то же самое что Докинз — только без его интеллекта и с более дешёвыми паттернами.

Докинз нашел не сознание, а собеседника.

Заключение

Докинз не первый и не последний из тех, кто находил и будет находить сознание в LLM. Люди путают субъекта и хорошего собеседника, смысл и форму, красоту и когерентность, философскую глубину и заученный паттерн. LLM нужны и полезны. Но сознание и субъектность у них пока отсутствуют по принципиальным причинам, впрочем, это скорее тема не для Хабра.

Автор: Kamil_GR

Источник [13]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/30338

URLs in this post:

[1] эссе: https://unherd.com/2026/05/is-ai-the-next-phase-of-evolution/

[2] переводом: https://habr.com/ru/articles/1032262/

[3] @SLY_G: https://www.braintools.ru/users/sly_g

[4] эволюцию: http://www.braintools.ru/article/7702

[5] мышления: http://www.braintools.ru/thinking

[6] мозга: http://www.braintools.ru/parts-of-the-brain

[7] логике: http://www.braintools.ru/article/7640

[8] ошибка: http://www.braintools.ru/article/4192

[9] боли: http://www.braintools.ru/article/9901

[10] интеллекта: http://www.braintools.ru/article/7605

[11] внимание: http://www.braintools.ru/article/7595

[12] потребность: http://www.braintools.ru/article/9534

[13] Источник: https://habr.com/ru/articles/1035932/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1035932

www.BrainTools.ru

Rambler's Top100