Дорогие любители написать, что текст ИИ-шный, эта статья также, как и все другие отредактирована ИИ.
Под моими статьями на Хабре в какой-то момент начал повторяться один и тот же сценарий. Не обсуждение тезисов, не спор по аргументам, не разбор примеров — а мгновенный заход в комментарии с диагнозом: «нейротекст», «нейрослоп», «научитесь формулировать мысли сами». Иногда человек даже не дочитывает материал до середины, но уже уверен, что проблема именно в инструменте, а не в содержании.
Меня это сначала раздражало, потом удивляло, а потом стало просто интересно. Потому что я не скрываю, что использую ИИ как редактор и помощника: чтобы быстрее шлифовать структуру, перепроверять формулировки, вытягивать из головы черновую мысль в более читаемый вид. Но я при этом не понимаю, где здесь логическая связка: если текст редактировался с помощью ИИ, почему это автоматически означает, что у автора нет своих мыслей?
В какой-то момент стало ясно, что спорить на уровне «ну это же просто инструмент» бесполезно. Если тема так многих цепляет, значит, за этим стоит что-то глубже: недоверие, культурная реакция, ощущение подмены, страх обесценивания труда — что угодно. Поэтому я решил не гадать и посмотреть, что на этот счёт вообще говорят исследования.
Людей часто раздражает не сам текст, а метка об ИИ
Самая важная работа по этой теме, на мой взгляд, вышла в PNAS Nexus в 2024 году. В двух пререгистрированных экспериментах с участниками из США и Великобритании исследователи показали довольно неприятную, но очень понятную вещь: если заголовок помечен как AI-generated, люди начинают считать его менее достоверным и реже готовы им делиться — даже если заголовок на самом деле правдивый или вообще написан человеком. Авторы отдельно отмечают, что дело не в том, будто люди приравнивают «AI-generated» к «ложно». Дело в другом: сама метка запускает у читателя представление о полной автоматизации без человеческого контроля.
И вот это, по-моему, ключевой момент. Большая часть раздражения возникает не на уровне качества текста, а на уровне воображаемого производственного процесса. Люди видят не «автор использовал ИИ как инструмент», а «машина всё сделала сама, человек просто нажал кнопку». Исследование как раз показывает, что именно такая трактовка и лежит под негативной реакцией на метку.
Эта история хорошо сочетается и с более прикладными данными. В исследовании Journal of Business Research 2025 года авторы показали, что когда люди считают эмоциональные маркетинговые сообщения написанными ИИ, они хуже к ним относятся, реже готовы рекомендовать бренд и слабее чувствуют его «подлинность». Но там есть важная деталь: эффект заметно ослабевает, если ИИ использовался не как автор, а как редактор, или если сообщение носит более фактический, а не эмоциональный характер. То есть реакция людей зависит не от любого участия ИИ, а от того, какую роль ему приписывают.
Если говорить проще: людей раздражает не всегда сам текст. Их раздражает ощущение, что за текстом нет субъекта, нет ответственности, нет усилия, нет «живого источника». И это уже не вопрос стиля, а вопрос доверия.
Критики не совсем неправы
Самое слабое в типичном анти-ИИ комментарии — это попытка свести всё к одному слову: «нейро». Как будто после этого спор можно закрывать. Но если отбросить эту риторику, то у скепсиса есть нормальные основания.
Во-первых, есть данные, что генеративный ИИ действительно может усиливать однообразие. В статье 2025 года в Technology in Society авторы показывают, что ИИ способен повышать индивидуальную креативную производительность, но со временем ведёт к росту гомогенности контента, а после его удаления творческие результаты проседают, при том что однообразие продолжает расти. Авторы прямо пишут о риске «иллюзии креативности»: производительность растёт, а реальная самостоятельная творческая способность — не обязательно.
Во-вторых, ИИ действительно помогает не всегда. В известной работе о «jagged technological frontier», которую делали вместе с консультантами BCG, GPT-4 давал сильный рост результатов на творческих и “внутри-фронтирных” задачах, но на задачах за пределами его реальных возможностей, наоборот, мог ухудшать качество решений. На уровне популярного пересказа обычно запоминают только «+40% к качеству», но сама работа куда честнее: ИИ даёт буст не везде, и тупое доверие к нему легко превращается в ускоренную ошибку.
Именно поэтому меня всегда смущает как слепая вера в ИИ, так и слепая ненависть к нему. Обе позиции слишком простые. Одна игнорирует риски шаблонности и деградации внимания, вторая — реальные данные о пользе инструмента.
Но ИИ реально умеет усиливать работу
Теперь к той части, которую в комментах обычно игнорируют. Есть уже достаточно исследований, где ИИ не обсуждают как культурную угрозу, а просто смотрят, что он делает с реальной работой.
Самый известный пример — исследование NBER о внедрении генеративного ИИ в работу 5 179 сотрудников клиентской поддержки. Средняя продуктивность выросла на 14%, а у новичков и менее сильных сотрудников — на 34%. При этом улучшились и клиентские оценки, и удержание сотрудников. Это довольно сильный аргумент в пользу того, что ИИ в ряде случаев работает не как «замена мышлению», а как способ быстрее передавать практики сильных исполнителей тем, кто пока слабее.
История с BCG тоже важна не только как предупреждение, но и как подтверждение пользы. В эксперименте с 758 консультантами использование GPT-4 на творческих и текстовых задачах внутри его “рабочей зоны” дало более 40% прироста качества, более 25% прироста скорости и рост числа завершённых задач. Но именно эта работа хороша тем, что не превращает ИИ в магию: она показывает, что эффект зависит от типа задачи, а не от самой по себе «нейросеточности».
В Nature Human Behaviour в 2024 году вышла ещё одна полезная статья: в пяти экспериментах использование ChatGPT повышало креативность идей по сравнению с режимом «без технологии» и даже по сравнению с обычным веб-поиском. Но есть нюанс, который мне особенно нравится своей честностью: модель лучше помогала с инкрементальной, а не радикальной новизной. То есть она хороша в комбинировании и доработке, а не обязательно в прорыве. Для автора, который использует ИИ как редактора, это вообще очень точное описание того, что происходит на практике.
Есть и более свежие данные про письмо. В статье AI & Society 2025 года авторы показывают, что ИИ-ассистирование улучшало качество эссе у всех участников, но особенно — у менее сильных авторов. Причём исследование прямо интерпретирует это как потенциально выравнивающий эффект, а не как расширение разрыва между сильными и слабыми.
Если вынести из этих работ общий смысл, он довольно трезвый: ИИ действительно способен ускорять работу, сглаживать слабые места, помогать с формулировкой, структурой и базовым качеством текста. Проблема не в самом факте использования, а в том, что именно человек ему отдаёт.
ИИ в креативе: буст есть, но цена тоже есть
Отдельно интересна тема творчества, потому что именно здесь у людей чаще всего возникает моральное отторжение: «ну ладно там код или рутина, но текст, идеи, искусство — это же уже совсем другое».
В творчестве ИИ — крайне спорная штука. Я занимаюсь написанием диалогов, книг и сценариев уже более 3 лет, и много раз пробовал дать ИИ возможность продолжить диалог, сцену, раскрыть персонажа с учётом контекста. Но в 90% случаев результат либо бредовый, либо просто банальный. При этом ИИ может дать безграничный поток идей: да, он написал бред, но именно благодаря этому бреду я увидел совершенно новый путь для своего персонажа — и это по-настоящему полезно. Хотя пару раз ИИ действительно смог придумать очень классные диалоги, потому что я обучил его на своих тысячах диалогов, а также на книгах вроде Джона Труби и Роберта Макки.
И вот когда я вижу ИИ-шный диалог или сцену — да, это плохо, это ужасно, но не потому, что это сделал ИИ, а потому, что сам диалог или сама сцена не работают. Чего не скажешь о статьях: там ИИ помогает выстроить структуру, исправить ошибки и ускорить процесс, а за всем этим всё равно скрывается та же практическая значимость.
В PNAS Nexus в 2024 году исследовали огромный массив работ с текст-в-изображение моделями: более 4 миллионов артефактов от более чем 50 тысяч пользователей. Исследователи пишут, что генеративный ИИ повышал человеческую творческую продуктивность примерно на 25%, а ценность работ по метрике favorites per view — на 50%. Но одновременно средняя новизна контента и визуальная новизна со временем снижались. То есть ИИ действительно помогает производить больше и иногда лучше, но у этого есть побочный эффект: пространство начинает тянуть к усреднённости.
И вот здесь уже начинается зона ответственности автора. Если человек берёт нейросеть как «машину усреднения» и даже не пытается удержать свою позицию, свой опыт и свою проверку фактов — результат действительно будет мёртвым. И претензии к такому тексту понятны. Но это всё ещё проблема плохого использования инструмента, а не самого инструмента.
Почему именно Хабр так остро реагирует
На Хабре, как мне кажется, сталкиваются сразу несколько вещей.
Первая — это довольно сильный культ ремесленного авторства. И в этом нет ничего плохого: людям важно, что текст не просто «получился», а был написан и продуман человеком, который понимает тему. Отсюда и болезненная реакция на ощущение «подмены».
Вторая — усталость от потока мусорного нейроконтента. Она реальна. Люди уже насмотрелись на тексты, где вроде всё правильно оформлено, но внутри — пустота, повторение банальностей и отсутствие позиции. После десятка таких публикаций они начинают реагировать на саму форму ещё до чтения содержания. Исследование про метку AI-generated как раз показывает, что такой перенос очень типичен: знак начинает работать раньше аргумента.
Третья — страх обесценивания собственного труда. И это, пожалуй, самая человеческая часть истории. Когда кто-то годами пишет руками, долго учится структуре, стилю и логике, а потом рядом появляется инструмент, который помогает другому человеку проходить часть этого пути быстрее, это почти неизбежно вызывает сопротивление. Не потому что люди глупые, а потому что любой ускоритель меняет правила статуса.
Но именно здесь мне кажется важным развести две вещи:
ускорение пути и отмену пути.
ИИ может ускорить путь. Он может помочь шлифовать, сокращать, перестраивать, подсказывать формулировки, находить слабые места. Но он не отменяет необходимость иметь собственную мысль, вкус, насмотренность, способность отличить сильный аргумент от слабого и проверить факты. И как раз это сегодня становится главным фильтром между нормальной работой с ИИ и «нейрослопом».
Где проходит нормальная граница
Для меня эта граница довольно простая.
Если человек:
-
сам выбирает тему
-
сам задаёт тезис
-
сам ищет и проверяет исследования
-
сам понимает примеры, о которых пишет
-
сам отвечает за итоговый текст
то ИИ в этой цепочке — просто инструмент. Иногда очень полезный. Иногда переоценённый. Но всё ещё инструмент.
Если же человек:
-
не понимает тему
-
не может объяснить, почему в статье именно такие выводы
-
не проверяет факты
-
не отличает чужую мысль от своей
-
не способен защитить текст в комментариях
тогда проблема вообще не в ИИ. Проблема в том, что текста как авторской работы там и не было.
Именно поэтому меня слабо убеждает аргумент «сам факт использования ИИ — уже плохо». Исследования как раз показывают, что люди гораздо спокойнее относятся к ИИ, когда понимают его роль как редактора или вспомогательного инструмента, а не как полностью автономного автора.
Вывод
Меня в этой истории больше всего цепляет даже не сам хейт в сторону ИИ, а странная подмена вопроса. Вместо того чтобы спрашивать:
есть ли в тексте мысль, опыт, практическая ценность и ответственность за выводы?
часть людей спрашивает только одно:
“это писал ИИ или нет?”
Проблема в том, что современная реальность уже не делится на такой примитивный бинарный выбор. Между «полностью человек» и «полностью машина» есть огромная серая зона: исследование с ИИ, черновик с ИИ, редактура с ИИ, проверка структуры с ИИ, переписывание фрагментов с ИИ, поиск контраргументов с ИИ. И исследования всё чаще показывают, что именно в этих смешанных режимах ИИ и даёт наибольшую пользу — особенно как ускоритель, выравниватель качества и инструмент поддержки менее сильных исполнителей.
Да, от ИИ есть реальные риски: усреднение, потеря авторского голоса, фальшивая «гладкость», зависимость и иллюзия мышления. Да, подозрительность к нему не взялась из ниоткуда. Но сам по себе факт, что текст редактировался нейросетью, ещё не делает его пустым, ложным или «не своим». И, возможно, спорить сегодня нужно уже не о том, использует ли автор ИИ, а о другом: сохранил ли он в тексте себя.
P.S. Кстати, дорогие хейтеры ИИ — немного цифр из индустрии.
По отчётам о контент-рынке:
-
80% блогеров используют ИИ
-
71% используют его для идей
-
68% — для написания черновиков
По опросу Wondercraft среди креаторов:
-
83% используют ИИ в рабочем процессе
-
38.7% — почти на всех этапах
-
44% — частично
По опросу 1190 профессиональных авторов (журналисты, ghostwriters, контент-авторы, аналитики):
-
26% используют ИИ ежедневно
-
19% — каждую неделю
-
16% — иногда
То есть около 61% профессиональных авторов уже используют ИИ в работе. И ещё интересный факт: исследование 186 000 статей из 1500 газет показало, что примерно 9% материалов содержат AI-генерированный текст, но использование ИИ почти никогда не раскрывается.
Автор: ArchitectOmni


