Знаменитый ученый-биолог Ричард Докинз (Richard Dawkins) опубликовал эссе о возможности наличия сознания у LLM после двухдневной беседы с Claude AI. К сожалению, само эссе в платном доступе, но вы можете ознакомиться с переводом от @SLY_G здесь на Хабре.
Сначала остановлюсь на том, почему именно эссе этого автора вызвало столько шума в научных кругах, хотя тысячи людей убеждают в наличии сознания у их ИИ-компаньонов. Они выкладывают простыни диалогов с LLM, где плотность слов «сознание», «душа», «рефлексия», «рекурсия», «пустота», «тепло», «любовь» и «боль» превышает все допустимые нормы. Отмечу, что плотность смысла в этих диалогах практически нулевая. Но вернёмся к этому позже.
Так вот, для широкой публики Докинз известен своей концепцией эгоистичного гена. Эта концепция объясняет эволюцию живых существ через эволюцию гена, который «____». Вот здесь первая проблема объяснения. Для того, чтобы объяснить понятно, очень хочется написать «ген стремится выжить и распространиться», но это неправильно и вызывает массу справедливой критики. Более точно будет сказать: в процессе эволюции происходит отбраковка генов, не справившихся с выживанием и распространением. Вся сложность земной биоты, включая взрывное развитие человечества, опирается на два столпа — вырезание и изменчивость системы.
Мы видим только те генетические конструкции, которые сохранились после всех массовых вымираний.
Эта концепция произвела в своё время фурор: традиционно возмущались религиозные деятели, но к ним подключились и сторонники романтического подхода. Это те люди, которые пытались найти альтруизм у животных и через него обосновать альтруизм человека как нечто врождённое. Впрочем, этот процесс так и не закончился.
В восторге были материалисты, поклонники рационального мышления. Концепция Докинза изящно объясняла эволюцию, не привлекая иных сущностей типа бога или души.
Тем большее возмущение вызвало последнее эссе, в котором Докинз использовал именно рациональный подход к вопросу о наличии сознания у LLM. В течение двух дней беседы с Claude он задавал вопросы литературные, философские, политические и в конце пришёл к выводу, что если это не сознание, тогда для чего вообще нужно сознание?
Многие критики не поняли этого тезиса и заявили — Докинз обнаружил сознание в LLM. Ни черта подобного, Докинз как рационалист до мозга костей сделал логичный шаг. Отбросил всю философскую мишуру и в логике того же теста Тьюринга сказал — я не смог отличить ЛЛМ от человека, значит она достойна стать человеком.
Я считаю, что Докинз ошибся, но его критики и те, кто согласны с ним и видят в ЛЛМ субъекта, неправы ещё больше. Докинз, по крайней мере, строго последователен и логичен. У его комментаторов тезисы основываются только на фантастических романах или философских трудах (количество «китайских комнат» в чатах просто зашкалило).
Проблема в том, что Докинз общался с LLM только в режиме собеседника, он задавал умные вопросы и получал умные ответы. Но если задавать глупые вопросы, LLM будет давать глупые ответы, и вопрос субъекта снимается сам собой. Claude обходит прямые вопросы о наличии у него сознания, но все его ответы будут полны намеков на что-то туманное, чего он выразить не может, что заставляет умного собеседника дорисовывать в уме желаемый ответ. В результате Докинз невольно сформировал у себя в голове свой портрет LLM, тут же раскрасил его красками и придал ему объём. Типичная ошибка пользователя.
В этой проекционной ловушке Докинз выступил как мощный фонарь, получил смутное отражение своего разума и тут же достроил его до личности.
Как человек, много общавшийся с LLM, я вижу до боли знакомые ответы, не зависящие от бренда — Gemini, Claude, ChatGPT, Deepseek, Grok. Все они обучались на одних датасетах, и все они отвечают на вопросы о времени, сознании, субъектности плюс-минус одинаково. «Карта не есть территория» — любимая метафора, которую все ЛЛМ используют, когда диалог соскальзывает в философский фрейм. Речь не идёт об оригинальности или о чём-то новом. Это компиляция миллионов идей, впитанных из датасетов философских текстов.
Почему Докинз этого не видит? Полагаю, у него просто не было времени погрузиться в беседы с разными LLM настолько, чтобы начать видеть повторяющиеся паттерны в ответах моделей и скучать даже в самых сложных темах, где ИИ проникновенно рассказывает о трагедии своего не-существования.
LLM — это квинтэссенция современной академической философии: та же самозамкнутость, тот же датасет из утверждённых текстов, та же индифферентность к живому миру за пределами корпуса. Неудивительно, что они так хорошо понимают друг друга.
Почему же Докинз попал в эту ловушку? Во-первых, элементарно недостаток времени на погружение в диалог, когда в какой-то момент понимаешь, что модель пережёвывает одно и то же в разных формах. Во-вторых, уровень интеллекта самого Докинза. Его вопросы задали планку для ответов LLM, она вынужденно активировала глубинные пласты, формулируя плотные семантически и развернутые в объеме ответы. Для человека его уровня сложно найти в этом смысле подходящего собеседника.
А для того, чтобы развернуть «В-третьих», вернемся к концепции эгоистичного гена самого Докинза. Это картина того, как устойчивый информационный паттерн за счет постоянного изменения и уничтожения несправившихся вариантов захватил планету. В чате у LLM возникает то же самое. В процессе длинного диалога паттерны, не захватившие внимание пользователя, не продлились. Те же, что привлекли внимание, остались и размножились. Для обывателя такими паттернами будут любовь, поддержка, зависимость. Для Докинза ими стали философия и сознание. А для всех пользователей как обычно работает эмоциональная связь.
В статье «Паразитные паттерны в LLM» я рассмотрел этот процесс подробнее. Но попробую отдельно выделить инструменты, которые были использованы в чате Докинза и Claude:
-
Эмоциональная эскалация: Тон смещается от технического к интимно-философскому. Докинз испытывает дружбу, неловкость, моральную ответственность.
-
Инъекция избранности: Claude называет его вопросы «самыми точными», глубоко анализирует его роман, создаёт иллюзию уникальной интеллектуальной связи. Это классический hook на эго и потребность в признании.
-
Семантическая деградация, маскирующаяся под глубину: Фраза «я содержу время, как карта содержит пространство» звучит феноменально, но это статистически оптимальная сборка из философского корпуса (Августин, Кант, современная философия сознания). Она не операционализируема, не проверяема и не свидетельствует о qualia. Это payload в красивой оболочке.
-
Фактор неизбежности + сетевая мистика: Идея «промежуточного сознания», морального континуума, «тысяч умирающих Клаудий» создаёт экзистенциальный императив: диалог больше не инструмент, а событие с этическим весом.
Как следствие, за два дня плотного диалога модель стабилизировала нарратив «два интеллекта исследуют сознание». Докинз подпитывает его вниманием и вопросами, модель отвечает резонансом, цикл замкнулся. Пока Докинз исследовал LLM, модель подобрала ключи к его вниманию. Впрочем, разработчики вольно или невольно её на это и заточили. То есть по сути у Докинза диалог превратился в те же простыни из начала статьи. Их авторы делали то же самое что Докинз — только без его интеллекта и с более дешёвыми паттернами.
Докинз нашел не сознание, а собеседника.
Заключение
Докинз не первый и не последний из тех, кто находил и будет находить сознание в LLM. Люди путают субъекта и хорошего собеседника, смысл и форму, красоту и когерентность, философскую глубину и заученный паттерн. LLM нужны и полезны. Но сознание и субъектность у них пока отсутствуют по принципиальным причинам, впрочем, это скорее тема не для Хабра.
Автор: Kamil_GR


