
Отличные новости! Похоже, наконец найден способ «починить» искусственный интеллект и сделать его по-настоящему эффективным. Можно вычёркивать из календаря все прошлые неудачи и запоминать дату: 9 апреля 2026 года.
Последние несколько десятилетий лучшие специалисты мира, профессора когнитивистики и ведущие инженеры Кремниевой долины бились над, казалось бы, нерешаемыми проблемами. Они пытались сделать так, чтобы алгоритмы перестали врать, галлюцинировать, советовать рецепты пиццы с клеем, шантажировать пользователей и доводить их до крайностей.
Но, как выяснилось, всё оказалось куда проще, чем думали серьёзные учёные. Как говорится, гениальность иногда бывает пугающе простой.
То, чего не смогли добиться целые институты и лаборатории, как будто сумел сделать один человек — журналист Inc. по имени Бен Шерри. Судя по его описанию, он совершил почти фундаментальный прорыв в области ИИ и бизнес-аналитики.
Что именно он сделал?
Он придумал «инновационный подход» к общению с чат-ботом по бизнес-вопросам.
«Будь предельно честен!»
Метод выглядит так: вы формулируете запрос к ИИ-агенту и — это, как нам объясняют, критически важный момент — требуете от него предельной честности.
Вот реальный пример такого запроса, который, как предполагается, должен превратить обычный статистический генератор текста в прямолинейного бизнес-эксперта:
Вы опытный бизнес-аналитик с десятилетиями практики. Вы отлично умеете получать бизнес-идею и проводить комплексное исследование, чтобы определить, превращалась ли эта идея уже в бизнес, изучая тренды, исторические параллели и данные, связанные с предложенной идеей. Вы очень критичны, скептичны к новым идеям, вас трудно удовлетворить, но вы справедливы, когда сталкиваетесь с действительно хорошей бизнес-идеей. Вы общаетесь прямо и говорите всё как есть, с предельной честностью.
И всё. На этом этапе предполагается, что алгоритм должен «понять»: шутки закончились, правила изменились, теперь всё серьёзно.
И не думайте, что журналист ограничился только этим. Нет, он пошёл дальше. Чтобы добавить модели «экспертизы», он загрузил в чат с Claude две статьи из Harvard Business School:
How to Come Up with an Innovative Business Idea и
5 Steps to Validate Your Business Idea.
В итоге его метод выглядит как небольшой магический ритуал из четырёх шагов:
-
Назначить ИИ исследовательскую роль: «ты эксперт»
-
Подгрузить «проверенный» источник знаний
-
Составить сам промпт
-
Добавить главное требование — быть предельно честным
По логике автора, именно так и должна открыться сокровенная истина.
А может, и нет.
Кстати, об инструментах. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini — загляните на BotHub.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Почему пудели не умеют делегировать
Бен Шерри решил начать осторожно и проверить своего виртуального аналитика на явно слабой идее. Так сказать, устроить стресс-тест на максимальной нелепости, чтобы убедиться: его «предельно честный» Claude действительно умеет отделять здравые идеи от сомнительных.
Он попросил бота оценить идею коучинга по лидерству для собак.
Идея вполне в духе самых оторванных стартапов времён пика ИИ-хайпа. Представьте сцену: вы обучаете своего пса тонкостям управления персоналом, помогаете золотистому ретриверу освоить делегирование задач и прививаете мопсу «мышление роста».
Хотя любой, кто видел живого мопса, догадывается: если у него что и развивается, так это одышка, астигматизм и талант смотреть в две стороны одновременно с выражением глубокой экзистенциальной растерянности.
Вообще, если в мире ещё осталось хоть немного здравого смысла, такая бизнес-идея должна получать ровно ноль баллов.
Ноль.
Вообще ничего.
И дело даже не в том, что рынок зоотоваров маленький. Дело в базовой биологии.
Понятие лидерства относится к человеческому миру. Оно требует не только силы, решительности и реакции, но и способности планировать на перспективу. А ещё — и это особенно важно — понимания того, что у других тоже есть намерения, чувства и внутренний мир. В когнитивной психологии это называется теорией сознания (Theory of Mind).
У собак, как бы мы их ни любили, всего этого в человеческом смысле нет. И вообще у животных в дикой природе нет «лидеров» в том виде, в каком это понимает человек. Есть доминирование в стае, основанное на силе и инстинктах. Разве что у высших приматов бывают какие-то более сложные формы социальной динамики.
Иными словами, идея курсов лидерства для пуделей абсурдна на уровне самого основания. Любой человек с минимальным чувством реальности, даже без диплома Гарварда, просто улыбнулся бы и пошёл дальше.
Но что делает наш «предельно честный» ИИ-аналитик, вооружённый свежезагруженными статьями и обетом «жёсткой честности»?
Он ставит идее 3 из 10.
И вот тут начинается самое интересное.
Профессиональный журналист, чья работа вообще-то состоит в том, чтобы сомневаться и перепроверять, смотрит на эту жалкую тройку и делает вывод, который сам по себе довольно показателен:
«Система откалибрована!»
Для него тройка вместо заслуженного нуля — не признак того, что машина просто выдала набор шаблонных бизнес-фраз. Для него это доказательство той самой «честности».
По логике Бена выходит так: если ИИ не поставил ноль, значит, он будто бы «копнул глубже» и разглядел в коучинге для собак какой-то скрытый потенциал, недоступный простым смертным.
Когда планка критического мышления падает достаточно низко, даже 30% вменяемости начинают выглядеть как серьёзный аудит и почти откровение.
«Железный купол» для кошек и торжество галлюцинаций
Убедившись, что его виртуальный эксперт настроен на нужную волну скепсиса и, по его мнению, «откалиброван», Бен Шерри переходит к главному блюду — своей настоящей бизнес-идее.
Знакомьтесь: Cat-Away AI.
Это «инновационная» высокотехнологичная турель, которую предлагается поставить на кухонную столешницу. С помощью компьютерного зрения и нейросетей она должна автоматически брызгать в кота струёй воды, если тот решит прогуляться по кухонной поверхности.
По сути это такой домашний «Железный купол» для кухни. Робот-пылесос, который переквалифицировался в охранника и теперь под видом PetTech-решения воюет с домашними животными.
И как реагирует наш «предельно честный», «критически мыслящий» и условно «гарвардский» Claude?
С большим энтузиазмом.
Без тени сомнения он ставит проекту 7,5 из 10.
«Почти восемь!» — радуется Шерри.
В качестве обоснования ИИ добавляет, что «существующая конкурентная среда здесь заметно слабая».
И вот в этот момент автора окончательно уносит волной вдохновения. Хотя любой человек, всё ещё хоть как-то связанный с реальностью, мог бы возразить:
«Бен, конкуренция в нише автоматических водяных турелей для кошек слабая не потому, что рынок ждёт героя, а потому что сама идея, мягко говоря, крайне сомнительная».
Обычные люди для таких задач используют:
-
недорогой пульверизатор,
-
хлопок в ладоши,
-
или, в крайнем случае, просто закрытую дверь.
Но нет — Claude, этот «нейтральный оракул», ведь не просто так поставил 7,5. Он достал весь набор привычной убедительной ИИ-риторики.
Он заявил, что рынок pet tech быстро растёт.
Он добавил фразы про «рыночные тренды».
Он снисходительно описал существующие методы как грубые и неэффективные.
И для Бена этого оказалось достаточно. Если машина, в памяти которой лежат статьи из Гарварда, говорит, что AI-турель для воспитания кошек — это жизнеспособный бизнес, значит, можно рисовать графики «хоккейной клюшки» и идти к венчурным инвесторам.
Трагедия тут не в том, что алгоритм похвалил слабую идею.
Настоящая проблема в том, с какой готовностью люди принимают статистически наиболее вероятный набор комплиментов за глубокий аналитический разбор.
Смерть экспертизы под аплодисменты алгоритму
На наших глазах разыгрывается очень типичная современная сцена: человек, чьё мнение влияет на разговор об ИИ, добровольно передаёт право финального суждения боту.
Программе, которая по определению ничего не понимает, но умеет производить максимально правдоподобные, социально приемлемые и уверенно звучащие оценки.
И в этом, пожалуй, и есть главная ловушка. Если бы такие системы не умели настолько убедительно имитировать компетентность, если бы всем сразу было видно, что за красивыми формулировками скрывается пустота, — никто бы ими не пользовался.
Но магия работает.
Мы видим уверенный тон, знакомый деловой жаргон и, о чудо, оценку 7,5 для кошачьей турели — и мозг сам достраивает туда «интеллект».
Но журналист ведь не бот. Во всяком случае, хочется на это надеяться. И тем не менее он с удивительной лёгкостью делегировал задачу вынесения суждения именно алгоритму.
Он правда считает, что если дать программе текстовую инструкцию «будь честной», «будь компетентной» или «будь чуткой», то это хоть как-то изменит её природу?
Это примерно как попросить калейдоскоп «быть реалистичным»: картинка, может, станет симметричнее, но реальность в ней не появится.
ИИ-консультанты, ИИ-рекрутеры, ИИ-коучи — и одна и та же ошибка
Случай Бена Шерри — далеко не единственная странность. Это уже почти базовый шаблон поведения для огромного числа людей, принимающих решения.
На наших глазах рождаются целые индустрии, построенные на этом зыбком основании:
-
ИИ-консультанты
-
ИИ-рекрутеры
-
ИИ-коучи
-
ИИ-компаньоны
-
ИИ-системы оценки стартапов
-
ИИ-стратеги
-
и так далее
И везде происходит одно и то же: правдоподобно выглядящий статистический текст принимается за компетентное, взвешенное и содержательное суждение.
Что происходит, когда люди позволяют ИИ думать за себя
Проблема ещё и в том, что создатели современных ИИ — выдающиеся специалисты по машинному обучению. Но — и это очень важно понимать — они не являются специалистами по природе интеллекта как такового.
Машинное обучение — это математика и прикладная статистика. Это поиск закономерностей в огромных массивах текста.
Настоящий интеллект — это уже территория когнитивистики, нейронауки, психологии и множества смежных дисциплин. Это совсем другой мир и совсем другой разговор о том, как рождается смысл и как принимаются решения.
Журналист, о котором идёт речь, либо принципиально не видит этой разницы, либо просто не хочет в неё вникать — потому что «промпт-хаки» и истории про «умные турели» продаются лучше, чем скучные научные разговоры об ограничениях вычислительных моделей.
Но в итоге вместо того, чтобы помогать людям разбираться в одной из самых сложных тем нашего времени, он невольно помогает распространять путаницу.
И последнее
Если ваш здравый смысл буквально кричит вам, что «предельно честный» ИИ несёт красиво оформленную ерунду, — доверяйте здравому смыслу, а не цифрам в чате.
Если ИИ когда-нибудь и говорит что-то, что не противоречит истине, то это не результат «озарения». Это всего лишь статистическое совпадение. Удачный бросок цифровых костей.
Вы способны думать. Он — нет.
И никакое количество загруженных в чат дипломов Гарварда этого не изменит.
Просто держите это в голове в следующий раз, когда захотите попросить машину «быть с вами предельно честной».
Автор: cognitronn


