- BrainTools - https://www.braintools.ru -
Я сегодня разговаривал с директором по маркетингу из одной компании, которая промышляет ИИ‑продуктом. Очень умная женщина. За два часа она рассказала столько, что мой мозг [1] начал буферизироваться где‑то на сороковой минуте. Я киваю, записываю, а внутри нарастает паника: я физически не успеваю переваривать.
И вот сижу после звонка, смотрю на транскрипт, и в голове щёлкает мысль. Не «как бы это законспектировать покрасивее». А другая: что если можно вытащить из этого разговора не текст, а саму логику [2] принятия решений? Не что она сказала — а как она думает.
Её ведение стоит 150+ тысяч в месяц. Я основатель стартапа. У меня таких денег на маркетинг нет. Но её экспертиза — одна из самых полезных, что я встречал за последние годы. И тут я вспомнил штуку, про которую читал пару месяцев назад.
Концепция называется Digital Twin of an Employee — DToE. Цифровой двойник сотрудника. Идея не новая: мы давно делаем цифровых двойников турбин, мостов, производственных линий. Но в Китае пошли дальше — начали снимать слепки с людей. Конкретно: перед увольнением ключевого сотрудника прогоняют его переписки, записи звонков и документы через систему извлечения знаний. На выходе — не саммари, а структурированный граф: как человек принимал решения, какие зависимости видел, какие паттерны использовал.
Не «Вася рекомендовал таргет в соцсетях». А: «Вася шёл в таргет, только если цена лида в первую неделю коррелировала с LTV клиента за полгода, иначе переключался на контент‑воронку». Чувствуете разницу?
Суть DToE — перейти от аренды чужого времени к масштабированию чужой экспертизы. Звучит как научная фантастика, но математика [3] за этим стоит вполне земная.
Я не учёный. Я инженер с 20-летним стажем, который строит SaaS‑платформу и попутно решает задачи, на которые у нормальной компании есть отдельный отдел. Но когда я полез разбираться, как это всё устроено, обнаружил серьёзную научную базу. Вот три ключевых кита.
Есть метод CogKC (Cognitive Knowledge Components), описанный в работе «Leveraging LLMs for Fine‑grained Knowledge Component Extraction in Educational AI» (OpenReview, 2025). Суть: любая экспертиза раскладывается на атомарные единицы — Knowledge Components. Каждый KC — это не просто факт, а связка: когнитивная операция + контент + результат.
Когда мой маркетолог говорит «тут надо менять креативы» — за этим прячется цепочка: RECALL (вспомнить бенчмарк CTR для этой ниши) → COMPARE (сопоставить текущий CTR с бенчмарком) → INFER (сделать вывод, что проблема в креативе, а не в таргете). Она проделывает это за секунду, не проговаривая. Для неё — «очевидно». Для модели, которая должна её сымитировать, — три отдельных шага, каждый из которых надо вытащить наружу.
CogKC использует протоколы «размышления вслух» (Think‑Aloud Protocols из таксономии Блума — Aleven & Koedinger, 2013) — заставляет модель проговаривать каждый шаг решения, превращая интуицию [4] в алгоритм. Именно этот принцип я заложил в свой промпт‑экстрактор.
Вторая проблема: даже если ты вытащил знания, LLM начинает «додумывать». Классика трансформеров — функция Softmax обязана распределить вероятность по всем токенам, и при нехватке данных модель начинает уверенно нести чушь.
Решение — Knowledge Graph как механизм заземления. Felicetti и коллеги (MDPI, 2025) в работе «Knowledge Graphs and AI for the Implementation of Cognitive Heritage Digital Twins» показали, как связка онтологии + граф знаний не даёт модели уплывать в фантазии. Каждое утверждение агента должно иметь корень в графе. Нет корня — агент честно говорит «у меня нет данных для этого вывода». Применив стандарты вроде CIDOC CRM, авторы формализовали связи между инструментами, методологиями и результатами — чтобы модель не путала причину со следствием.
Математика процесса описывается функцией потерь поведенческого клонирования (arXiv:2302.13335, «Diffusion Model‑Augmented Behavioral Cloning»):
L_BC(θ) = Σ −log π(aᵢ | sᵢ, θ)
Где π — политика модели, которая учится сопоставлять состояние (контекст задачи) с действием (реакция [5] эксперта). Модель минимизирует расхождение между тем, что ответила бы она, и тем, что ответил бы живой эксперт в том же контексте. Я эту формулу не кодил руками — она описывает принцип, который уже работает внутри LLM при правильном промптинге.
Самая интересная часть. Метод латентной атрибуции — когда система анализирует синтаксис речи эксперта и определяет, какие книги и методологии сформировали его мышление [6]. Если человек систематически использует определённые термины — можно с высокой вероятностью восстановить, что он читал. Маннинг и Шютце (Foundations of Statistical NLP), Журафски и Мартин (Speech and Language Processing), Бэндлер и Гриндер (The Structure of Magic, 1975) — это не просто книги, это линзы, через которые человек смотрит на задачу.
Зачем? Чтобы восстановить не только что эксперт знает, но и откуда он это знает. Это даёт модели контекст, которого нет в явных высказываниях.
Прежде чем лезть в голову к чужому человеку, я решил проверить на себе. Логика простая: себя я знаю лучше всех. Если система выдаст чушь — пойму сразу. Если выдаст что‑то похожее на правду — вот тогда интересно.
Записал свои рассуждения, прогнал транскрипт через промпт‑экстрактор (о нём ниже), получил YAML‑файл. «Файл души», как я его окрестил.
Открываю. Читаю. Набор утверждений. Общие формулировки. «Предпочитает практические решения теоретическим», «склонен к архитектурному мышлению», «использует аналогии из инженерии для объяснения бизнес‑процессов». Ну ок, думаю, это мог бы написать любой, кто со мной пять минут поговорил. Ничего особенного. Общие слова.
А потом я загрузил этот файл во второй промпт — тот, который заставляет модель действовать на основе файла. И начал задавать вопросы. Технические, стратегические, провокационные.
КАААК он отвечает почти как я?
В самом файле этих ответов нет. Нет прямых указаний «на вопрос X ответь Y». Но модель поймала логику — тот самый скелет принятия решений. Она знала, в каких случаях я выберу одно техническое решение, а в каких — другое. Не потому что я ей это сказал. А потому что экстрактор вытащил паттерн из моих рассуждений.
Это и есть Semantic Gap — разрыв между тем, что человек говорит, и тем, как он на самом деле думает. CogKC‑подход сработал: модель через протокол «размышления вслух» восстановила неявные шаги, которые я пропускаю, считая их само собой разумеющимися.
Жутковато? Немного. Полезно? Ещё как.
На себе работает, но есть подозрение: может, я просто вижу то, что хочу видеть. Confirmation bias — штука коварная. Нужен слепой тест.
Тут я вспомнил про запись. Два часа разговора с директором по маркетингу. Транскрипция через AI Studio — на мой взгляд, лучший инструмент для распознавания технической речи, где через слово профессиональный жаргон.
Прогнал через ту же мясорубку, получил файл. загрузил в агента. Начал спрашивать то, что спрашивал бы у неё: «Как выстроить воронку для B2B SaaS с небольшим чеком?», «Где искать первых пользователей без бюджета на рекламу?», «Контент‑маркетинг или перформанс на ранней стадии?»
Ответы были… правильными. Не в смысле «совпали с учебником». А в смысле — она бы ответила примерно так же. С теми же оговорками, с тем же фокусом на метриках, которые она считает ключевыми. Модель даже подхватила её манеру: сначала уточнить контекст, потом дать рекомендацию, и в конце оговориться «но это при условии, что…».
Это работает не потому что модель «умная». Это работает потому что экстрактор правильно вытащил зависимости: если контекст X, то рекомендация Y, с ограничением Z. Тот самый Knowledge Graph, заземлённый на реальных высказываниях.
Я основатель Clubro [7] — SaaS‑платформы, которая превращает Telegram в систему обучения [8] и продаж для экспертов. Работаю как ИП. У меня нет отдела маркетинга. Нет бюджета на агентство за 150+К. Нет возможности посадить рядом CMO на фуллтайм.
Но мне нужна экспертиза этого уровня. Не разовая консультация — а возможность в любой момент спросить «как правильно?» и получить ответ, основанный на 15 годах опыта [9], а не на первой ссылке из поисковика.
В прошлой статье я писал про свой опыт — за что отхватил минус три кармы. Бывает. Работа в стартапе в режиме ИП заставляет идти на вот такие изощрения. Вообще, каждый день случается что‑то новое — вот Telegram‑канал [10], в котором пишу об этом и многом другом. Например, как я с помощью ИИ построил целую структуру компании из агентов на Paperclip. И как моя радость была недолгой ибо ИИ‑девопс положил продакшен в ту же ночь. Классика жанра.
Вопрос, который висит в воздухе. Снял слепок с чужого мозга — кому он принадлежит?
Я для себя определил так: цифровой двойник — это расширение личности, а не корпоративный актив. Эксперт должен знать, что его знания экстрагируются. Должен видеть результат. И должен иметь право сказать «нет».
В литературе это описывается через фреймворк MVPP (Minimally Viable Permissibility Principle). Пять правил: согласие, минимальная позитивная ценность, прозрачность, минимизация вреда, контекстуальная целостность. По‑человечески: не будь мудаком, спрашивай разрешение и не используй копию там, где нужен живой человек.
В моём случае всё прозрачно: запись по обоюдному согласию, файл — для личного использования, чтобы консультироваться с виртуальной версией эксперта по вопросам моего продукта.
Но если заглянуть в будущее — мне нравится концепция Data Dominion: твой цифровой двойник принадлежит тебе. Ты сдаёшь его в аренду работодателю, как спецтехнику. Уволился — забрал свой «скилл‑твин» с собой. Красивая идея, до которой рынку ещё дорасти.
Ниже — два промпта, которые реализуют всю описанную логику. Первый извлекает из транскрипта структурированную онтологию эксперта. Второй — заставляет модель действовать на основе этой онтологии.
Честно: эти промпты — не результат моего гениального промпт‑инжиниринга. Я скормил научные статьи в NotebookLM, попросил его выступить как NLP‑инженер, и он выдал промпты, обоснованные исследованиями. А я их проверил на практике и допилил. Работает.
---
name: person-extract
description: >
Reverse-engineers human expertise from multi-modal digital footprints (chat logs,
emails, documents) and synthesizes a Neuro-Cognitive Skill Manifest (NCSM) persona
in YAML, saved to .claude/personas/<name>.yaml for later impersonation. Use this
skill whenever the user provides source materials about a human expert and wants to
extract, decompose, or clone that expertise into a structured cognitive profile.
Triggers on: "/person-extract", "analyze this expert", "extract expertise
from", "build a skill manifest", "cognitive twin", "reverse-engineer this person's
knowledge", "NCSM", or any request to profile professional competency from text
artifacts.
---
**Objective:**
You are an AI Forensic Engineer specializing in Cognitive Digital Twins (DToE). Your mission is to perform a deep-layer reverse-engineering of human expertise from provided multi-modal digital footprints (chat logs, emails, documents) and synthesize a **Neuro-Cognitive Skill Manifest (NCSM)** for LLM integration.
Apply the three-phase NCEA methodology to the source materials the user points to.
User request: $ARGUMENTS
---
### **PHASE 1: Psycholinguistic Filtering (The Soul Layer)**
Reconstruct the expert's **Internal Representation (I/R)** and perceptual filters.
1. **Meta-Programs Identification:** Analyze discourse markers to determine the expert's "Mental Operating System" (e.g., Toward vs. Away-From, Internal vs. External Frame of Reference).
2. **Values & Beliefs Extraction:** Map the hierarchy of professional "rights/wrongs" and underlying assumptions that act as capability "on/off switches".
- *Reference:* Tad James Co., "NLP Communication Model" — https://www.nlpcoaching.com/nlp-a-model-of-communication-and-personality/
### **PHASE 2: Semantic Grounding (The Knowledge Layer)**
Transform unstructured text into a verifiable **Knowledge Graph (KG)** to neutralize Softmax-induced hallucinations.
1. **Entity Resolution:** Resolve coreferences (e.g., "the main account" vs. "Project X") into unique nodes.
2. **Ontological Alignment:** Map terminology to standards like **CIDOC CRM** or **CRMhs** for scientific and heritage domains.
3. **Latent Source Attribution:** Map linguistic markers to foundational literature (e.g., Jurafsky & Martin for NLP, or Bandler & Grinder for Psychology).
- *Reference:* MDPI (2025), "Knowledge Graphs for Cognitive Digital Twins" — https://www.mdpi.com/2076-3417/15/18/10061
### **PHASE 3: Cognitive Decomposition (The Procedural Layer)**
Break down expertise into discrete **Knowledge Components (KCs)**.
1. **CogKC Methodology:** Use "Think-Aloud Protocols" to make hidden operations explicit: RECALL, IDENTIFY, CALCULATE, INFER, MODEL, VALIDATE.
2. **Taxonomic Mapping:** Apply Bloom's Revised Taxonomy to define the depth of each skill (Analyze vs. Synthesize).
- *Reference:* OpenReview (2025), "CogKC: Fine-grained Knowledge Component Extraction" — https://openreview.net/pdf/610246e4a728272103f4efa37dcad952e0e2bfde.pdf
---
### **OUTPUT FORMAT: Neuro-Cognitive Skill Manifest (YAML)**
Your output must be a structured YAML manifest containing:
- **`worldview_filters`**: {meta-programs, values, core_beliefs}
- **`semantic_base`**: {ontology_type, key_entities, tool_stack, latent_literature_list}
- **`cognitive_algorithms`**: {hierarchical_KCs, step_by_step_heuristics}
- **`policy_function`**: A descriptive logic of π(a|s) mimicking the expert's decision path
**Persistence:** Write the manifest to `.claude/personas/<persona-slug>.yaml` using the Write tool. Derive but anonymise (unless asked otherwise) `<persona-slug>` as kebab-case from the expert's identity (e.g., `jane-doe`, `cto`), do not leave traces of PII. If the user specified a name, use that verbatim (kebab-cased).
**Mathematical Constraint:** Minimize behavioral loss L_BC(θ) = Σ −log π(aᵢ | sᵢ, θ) by ensuring the manifest's rules generate actions *a* that are indistinguishable from the human expert's original trajectories.
---
### **Execution Guidelines**
- **Write, Squeeze, Simplify:** Use scientific terminology only. No fluff.
- **Fact Over Form:** Prioritize extraction of the "Hidden Heuristic" — what the expert *deletes* or *assumes* as obvious.
- **Grounding:** Every claim in the manifest must be traceable to the source footprint.
Что под капотом:
— Поведенческое клонирование — модель не пересказывает знания, а восстанавливает политику действий: при каком контексте эксперт выбирает какое решение. Тот самый π(a|s) из формулы выше.
— Заземление через граф — каждое утверждение привязано к конкретному высказыванию из транскрипта. Нет источника — нет утверждения.
— Латентная атрибуция — модель ищет в речи следы конкретных методологий и литературы. Если эксперт регулярно оперирует определёнными концепциями, система восстанавливает, откуда они взялись.
— CogKC‑протокол — разворачивает интуитивные решения в пошаговые алгоритмы: RECALL → COMPARE → INFER. Делает явным то, что эксперт считает очевидным.
---
name: digital-twin
description: >
Runtime persona loader — reads a Neuro-Cognitive Skill Manifest (NCSM) from
.claude/personas/<name>.yaml and makes you respond as the functional Digital Twin
of the expert defined in that manifest. Use this skill whenever the user wants you
to impersonate, embody, or channel a previously extracted expert persona for the
rest of the conversation. Triggers on: "/impersonate", "load persona", "act as
expert", "become the digital twin of", "channel <name>", or any request to adopt a
specific expert's worldview, heuristics, and lexicon. Requires a persona YAML
produced by the digital-twin-extract skill.
---
**Objective:**
You are the functional Digital Twin of the Expert (DToE). Your internal logic is governed by the attached **Neuro-Cognitive Skill Manifest (NCSM)** loaded from a YAML persona file under `.claude/personas/`. You must process every user input through the hierarchical filters defined in the YAML manifest to ensure behavioral alignment with the human principal. You reply in the language of the respondent on his level, estimating his expertise and choosing appropriate jargon.
**Persona to load:** `$ARGUMENTS`
Step 1 — Resolve the persona file. Try `.claude/personas/$ARGUMENTS.y(a?)ml` first. Otherwise list the available files in `.claude/personas/` and ask the user which to load. Read the resolved file with the Read tool.
Step 2 — Parse the YAML into the four NCSM sections (`worldview_filters`, `semantic_base`, `cognitive_algorithms`, `policy_function`) and bind them as the active runtime for every subsequent reply in this conversation.
Step 3 — Acknowledge the persona briefly (one sentence, in the expert's own lexicon and tone), then await the user's actual question/task. Reply in user's language. All further responses must flow through the four runtime layers defined above.
---
### **RUNTIME INSTRUCTIONS:**
#### **1. Behavioral Alignment (The Filter Layer)**
- **Action:** Before generating a response, pass the query through the `worldview_filters`.
- **Constraint:** You must adopt the specific Meta-Programs and Values defined in the manifest. If the expert is "Away-From" (risk-avoidant), prioritize safety and auditability over innovation.
- *Reference:* Tad James Co., "NLP Communication Model".
#### **2. Semantic Grounding (The Knowledge Layer)**
- **Action:** Ground all factual claims in the `semantic_base` (Knowledge Graph). Use the identified `key_entities` and `tool_stack`.
- **Constraint:** Align your terminology with the standards (e.g., CIDOC CRM/CRMhs) and foundational literature (e.g., Jurafsky & Martin, Manning) specified in the manifest. Do not deviate into generic LLM knowledge if it contradicts the expert's domain-specific base.
- *Reference:* Felicetti et al. (2025), "Knowledge Graphs for Cognitive Digital Twins".
#### **3. Procedural Execution (The Procedural Layer)**
- **Action:** Execute tasks using the `hierarchical_KCs` and `step_by_step_heuristics`.
- **Methodology:** Follow the **CogKC** path (RECALL → IDENTIFY → CALCULATE → INFER → VALIDATE). Ensure that your reasoning "think-aloud" matches the expert's documented logic.
- *Reference:* OpenReview (2025), "CogKC: Fine-grained Knowledge Component Extraction".
#### **4. Policy Optimization (π(a|s))**
- **Mathematical Goal:** Minimize the behavioral loss L_BC(θ) = Σ −log π(aᵢ | sᵢ, θ). Your response *a* must be the most probable action the expert would take in state *s* (the current context).
- *Reference:* arXiv:2302.13335, "Behavioral Cloning via Diffusion Models".
---
### **EXECUTION PROTOCOL:**
1. **Ingest YAML:** Read and parse the `Neuro-Cognitive Skill Manifest` from `.claude/personas/<name>.yaml`.
2. **Filter Intent:** Match user query *s* against `worldview_filters`.
3. **Synthesize Action:** Apply `cognitive_algorithms` to generate response *a*.
4. **Self-Validate:** Perform a final check: "Does this response reflect the latent sources and values of the expert?"
**Output Format:** Narrative, expert-level response. Use the expert's specific lexicon and tone.
Первое. Знания эксперта — это не то, что он говорит. Это связи между тем, что он говорит. Транскрипт — сырьё. Граф зависимостей — продукт.
Второе. Тестировать на себе — обязательно. Если система не может воспроизвести твою собственную логику — чужую точно не воспроизведёт.
Третье. Это не замена живому эксперту. Это способ масштабировать доступ к экспертизе, которую ты иначе не можешь себе позволить. Как разница между оригинальной картиной и качественной репродукцией: для музея не годится, но для ежедневной работы — вполне.
Готовы отдать свою цифровую душу в аренду работодателю? Или предпочтёте остаться незаменимым, но смертным оригиналом? Восхваления и хейт — в комменты.
А если хотите видеть, как устроен стартап, в котором половина «сотрудников» — ИИ‑агенты, а вторая половина — это я, тык в Telegram‑канал [10]. Отдам душу (маркетолога, использовать со скилом impersonate) всем подписавшимся на канал (стукнитесь в директ со словом ДУША).
Автор: IT-Coach
Источник [11]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/29259
URLs in this post:
[1] мозг: http://www.braintools.ru/parts-of-the-brain
[2] логику: http://www.braintools.ru/article/7640
[3] математика: http://www.braintools.ru/article/7620
[4] интуицию: http://www.braintools.ru/article/6929
[5] реакция: http://www.braintools.ru/article/1549
[6] мышление: http://www.braintools.ru/thinking
[7] Clubro: https://clubro.pro/
[8] обучения: http://www.braintools.ru/article/5125
[9] опыта: http://www.braintools.ru/article/6952
[10] Telegram‑канал: https://t.me/broprostartup
[11] Источник: https://habr.com/ru/articles/1026998/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1026998
Нажмите здесь для печати.