- BrainTools - https://www.braintools.ru -
Дорогие любители написать, что текст ИИ-шный, эта статья также, как и все другие отредактирована ИИ.
Под моими статьями на Хабре в какой-то момент начал повторяться один и тот же сценарий. Не обсуждение тезисов, не спор по аргументам, не разбор примеров — а мгновенный заход в комментарии с диагнозом: «нейротекст», «нейрослоп», «научитесь формулировать мысли сами». Иногда человек даже не дочитывает материал до середины, но уже уверен, что проблема именно в инструменте, а не в содержании.
Меня это сначала раздражало, потом удивляло, а потом стало просто интересно. Потому что я не скрываю, что использую ИИ как редактор и помощника: чтобы быстрее шлифовать структуру, перепроверять формулировки, вытягивать из головы черновую мысль в более читаемый вид. Но я при этом не понимаю, где здесь логическая связка: если текст редактировался с помощью ИИ, почему это автоматически означает, что у автора нет своих мыслей?
В какой-то момент стало ясно, что спорить на уровне «ну это же просто инструмент» бесполезно. Если тема так многих цепляет, значит, за этим стоит что-то глубже: недоверие, культурная реакция [1], ощущение подмены, страх [2] обесценивания труда — что угодно. Поэтому я решил не гадать и посмотреть, что на этот счёт вообще говорят исследования.
Самая важная работа по этой теме, на мой взгляд, вышла в PNAS Nexus в 2024 году. В двух пререгистрированных экспериментах с участниками из США и Великобритании исследователи показали довольно неприятную, но очень понятную вещь: если заголовок помечен как AI-generated, люди начинают считать его менее достоверным и реже готовы им делиться — даже если заголовок на самом деле правдивый или вообще написан человеком. Авторы отдельно отмечают, что дело не в том, будто люди приравнивают «AI-generated» к «ложно». Дело в другом: сама метка запускает у читателя представление о полной автоматизации без человеческого контроля.
И вот это, по-моему, ключевой момент. Большая часть раздражения возникает не на уровне качества текста, а на уровне воображаемого производственного процесса. Люди видят не «автор использовал ИИ как инструмент», а «машина всё сделала сама, человек просто нажал кнопку». Исследование как раз показывает, что именно такая трактовка и лежит под негативной реакцией на метку.
Эта история хорошо сочетается и с более прикладными данными. В исследовании Journal of Business Research 2025 года авторы показали, что когда люди считают эмоциональные маркетинговые сообщения написанными ИИ, они хуже к ним относятся, реже готовы рекомендовать бренд и слабее чувствуют его «подлинность». Но там есть важная деталь: эффект заметно ослабевает, если ИИ использовался не как автор, а как редактор, или если сообщение носит более фактический, а не эмоциональный характер. То есть реакция людей зависит не от любого участия ИИ, а от того, какую роль ему приписывают.
Если говорить проще: людей раздражает не всегда сам текст. Их раздражает ощущение, что за текстом нет субъекта, нет ответственности, нет усилия, нет «живого источника». И это уже не вопрос стиля, а вопрос доверия.
Самое слабое в типичном анти-ИИ комментарии — это попытка свести всё к одному слову: «нейро». Как будто после этого спор можно закрывать. Но если отбросить эту риторику, то у скепсиса есть нормальные основания.
Во-первых, есть данные, что генеративный ИИ действительно может усиливать однообразие. В статье 2025 года в Technology in Society авторы показывают, что ИИ способен повышать индивидуальную креативную производительность, но со временем ведёт к росту гомогенности контента, а после его удаления творческие результаты проседают, при том что однообразие продолжает расти. Авторы прямо пишут о риске «иллюзии креативности»: производительность растёт, а реальная самостоятельная творческая способность — не обязательно.
Во-вторых, ИИ действительно помогает не всегда. В известной работе о «jagged technological frontier», которую делали вместе с консультантами BCG, GPT-4 давал сильный рост результатов на творческих и “внутри-фронтирных” задачах, но на задачах за пределами его реальных возможностей, наоборот, мог ухудшать качество решений. На уровне популярного пересказа обычно запоминают только «+40% к качеству», но сама работа куда честнее: ИИ даёт буст не везде, и тупое доверие к нему легко превращается в ускоренную ошибку [3].
Именно поэтому меня всегда смущает как слепая вера в ИИ, так и слепая ненависть к нему. Обе позиции слишком простые. Одна игнорирует риски шаблонности и деградации внимания [4], вторая — реальные данные о пользе инструмента.
Теперь к той части, которую в комментах обычно игнорируют. Есть уже достаточно исследований, где ИИ не обсуждают как культурную угрозу, а просто смотрят, что он делает с реальной работой.
Самый известный пример — исследование NBER о внедрении генеративного ИИ в работу 5 179 сотрудников клиентской поддержки. Средняя продуктивность выросла на 14%, а у новичков и менее сильных сотрудников — на 34%. При этом улучшились и клиентские оценки, и удержание сотрудников. Это довольно сильный аргумент в пользу того, что ИИ в ряде случаев работает не как «замена мышлению», а как способ быстрее передавать практики сильных исполнителей тем, кто пока слабее.
История с BCG тоже важна не только как предупреждение, но и как подтверждение пользы. В эксперименте с 758 консультантами использование GPT-4 на творческих и текстовых задачах внутри его “рабочей зоны” дало более 40% прироста качества, более 25% прироста скорости и рост числа завершённых задач. Но именно эта работа хороша тем, что не превращает ИИ в магию: она показывает, что эффект зависит от типа задачи, а не от самой по себе «нейросеточности».
В Nature Human Behaviour в 2024 году вышла ещё одна полезная статья: в пяти экспериментах использование ChatGPT повышало креативность идей по сравнению с режимом «без технологии» и даже по сравнению с обычным веб-поиском. Но есть нюанс, который мне особенно нравится своей честностью: модель лучше помогала с инкрементальной, а не радикальной новизной. То есть она хороша в комбинировании и доработке, а не обязательно в прорыве. Для автора, который использует ИИ как редактора, это вообще очень точное описание того, что происходит на практике.
Есть и более свежие данные про письмо. В статье AI & Society 2025 года авторы показывают, что ИИ-ассистирование улучшало качество эссе у всех участников, но особенно — у менее сильных авторов. Причём исследование прямо интерпретирует это как потенциально выравнивающий эффект, а не как расширение разрыва между сильными и слабыми.
Если вынести из этих работ общий смысл, он довольно трезвый: ИИ действительно способен ускорять работу, сглаживать слабые места, помогать с формулировкой, структурой и базовым качеством текста. Проблема не в самом факте использования, а в том, что именно человек ему отдаёт.
Отдельно интересна тема творчества [5], потому что именно здесь у людей чаще всего возникает моральное отторжение: «ну ладно там код или рутина, но текст, идеи, искусство — это же уже совсем другое».
В творчестве ИИ — крайне спорная штука. Я занимаюсь написанием диалогов, книг и сценариев уже более 3 лет, и много раз пробовал дать ИИ возможность продолжить диалог, сцену, раскрыть персонажа с учётом контекста. Но в 90% случаев результат либо бредовый, либо просто банальный. При этом ИИ может дать безграничный поток идей: да, он написал бред, но именно благодаря этому бреду я увидел совершенно новый путь для своего персонажа — и это по-настоящему полезно. Хотя пару раз ИИ действительно смог придумать очень классные диалоги, потому что я обучил его на своих тысячах диалогов, а также на книгах вроде Джона Труби и Роберта Макки.
И вот когда я вижу ИИ-шный диалог или сцену — да, это плохо, это ужасно, но не потому, что это сделал ИИ, а потому, что сам диалог или сама сцена не работают. Чего не скажешь о статьях: там ИИ помогает выстроить структуру, исправить ошибки и ускорить процесс, а за всем этим всё равно скрывается та же практическая значимость.
В PNAS Nexus в 2024 году исследовали огромный массив работ с текст-в-изображение моделями: более 4 миллионов артефактов от более чем 50 тысяч пользователей. Исследователи пишут, что генеративный ИИ повышал человеческую творческую продуктивность примерно на 25%, а ценность работ по метрике favorites per view — на 50%. Но одновременно средняя новизна контента и визуальная новизна со временем снижались. То есть ИИ действительно помогает производить больше и иногда лучше, но у этого есть побочный эффект: пространство начинает тянуть к усреднённости.
И вот здесь уже начинается зона ответственности автора. Если человек берёт нейросеть как «машину усреднения» и даже не пытается удержать свою позицию, свой опыт [6] и свою проверку фактов — результат действительно будет мёртвым. И претензии к такому тексту понятны. Но это всё ещё проблема плохого использования инструмента, а не самого инструмента.
На Хабре, как мне кажется, сталкиваются сразу несколько вещей.
Первая — это довольно сильный культ ремесленного авторства. И в этом нет ничего плохого: людям важно, что текст не просто «получился», а был написан и продуман человеком, который понимает тему. Отсюда и болезненная реакция на ощущение «подмены».
Вторая — усталость от потока мусорного нейроконтента. Она реальна. Люди уже насмотрелись на тексты, где вроде всё правильно оформлено, но внутри — пустота, повторение [7] банальностей и отсутствие позиции. После десятка таких публикаций они начинают реагировать на саму форму ещё до чтения содержания. Исследование про метку AI-generated как раз показывает, что такой перенос очень типичен: знак начинает работать раньше аргумента.
Третья — страх обесценивания собственного труда. И это, пожалуй, самая человеческая часть истории. Когда кто-то годами пишет руками, долго учится структуре, стилю и логике [8], а потом рядом появляется инструмент, который помогает другому человеку проходить часть этого пути быстрее, это почти неизбежно вызывает сопротивление. Не потому что люди глупые, а потому что любой ускоритель меняет правила статуса.
Но именно здесь мне кажется важным развести две вещи:
ускорение пути и отмену пути.
ИИ может ускорить путь. Он может помочь шлифовать, сокращать, перестраивать, подсказывать формулировки, находить слабые места. Но он не отменяет необходимость иметь собственную мысль, вкус [9], насмотренность, способность отличить сильный аргумент от слабого и проверить факты. И как раз это сегодня становится главным фильтром между нормальной работой с ИИ и «нейрослопом».
Для меня эта граница довольно простая.
Если человек:
сам выбирает тему
сам задаёт тезис
сам ищет и проверяет исследования
сам понимает примеры, о которых пишет
сам отвечает за итоговый текст
то ИИ в этой цепочке — просто инструмент. Иногда очень полезный. Иногда переоценённый. Но всё ещё инструмент.
Если же человек:
не понимает тему
не может объяснить, почему в статье именно такие выводы
не проверяет факты
не отличает чужую мысль от своей
не способен защитить текст в комментариях
тогда проблема вообще не в ИИ. Проблема в том, что текста как авторской работы там и не было.
Именно поэтому меня слабо убеждает аргумент «сам факт использования ИИ — уже плохо». Исследования как раз показывают, что люди гораздо спокойнее относятся к ИИ, когда понимают его роль как редактора или вспомогательного инструмента, а не как полностью автономного автора.
Меня в этой истории больше всего цепляет даже не сам хейт в сторону ИИ, а странная подмена вопроса. Вместо того чтобы спрашивать:
есть ли в тексте мысль, опыт, практическая ценность и ответственность за выводы?
часть людей спрашивает только одно:
“это писал ИИ или нет?”
Проблема в том, что современная реальность уже не делится на такой примитивный бинарный выбор. Между «полностью человек» и «полностью машина» есть огромная серая зона: исследование с ИИ, черновик с ИИ, редактура с ИИ, проверка структуры с ИИ, переписывание фрагментов с ИИ, поиск контраргументов с ИИ. И исследования всё чаще показывают, что именно в этих смешанных режимах ИИ и даёт наибольшую пользу — особенно как ускоритель, выравниватель качества и инструмент поддержки менее сильных исполнителей.
Да, от ИИ есть реальные риски: усреднение, потеря авторского голоса, фальшивая «гладкость», зависимость и иллюзия мышления [10]. Да, подозрительность к нему не взялась из ниоткуда. Но сам по себе факт, что текст редактировался нейросетью, ещё не делает его пустым, ложным или «не своим». И, возможно, спорить сегодня нужно уже не о том, использует ли автор ИИ, а о другом: сохранил ли он в тексте себя.
P.S. Кстати, дорогие хейтеры ИИ — немного цифр из индустрии.
По отчётам о контент-рынке:
80% блогеров используют ИИ
71% используют его для идей
68% — для написания черновиков
По опросу Wondercraft среди креаторов:
83% используют ИИ в рабочем процессе
38.7% — почти на всех этапах
44% — частично
По опросу 1190 профессиональных авторов (журналисты, ghostwriters, контент-авторы, аналитики):
26% используют ИИ ежедневно
19% — каждую неделю
16% — иногда
То есть около 61% профессиональных авторов уже используют ИИ в работе. И ещё интересный факт: исследование 186 000 статей из 1500 газет показало, что примерно 9% материалов содержат AI-генерированный текст, но использование ИИ почти никогда не раскрывается.
Автор: ArchitectOmni
Источник [11]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26722
URLs in this post:
[1] реакция: http://www.braintools.ru/article/1549
[2] страх: http://www.braintools.ru/article/6134
[3] ошибку: http://www.braintools.ru/article/4192
[4] внимания: http://www.braintools.ru/article/7595
[5] творчества: http://www.braintools.ru/creation
[6] опыт: http://www.braintools.ru/article/6952
[7] повторение: http://www.braintools.ru/article/4012
[8] логике: http://www.braintools.ru/article/7640
[9] вкус: http://www.braintools.ru/article/6291
[10] мышления: http://www.braintools.ru/thinking
[11] Источник: https://habr.com/ru/articles/1007544/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1007544
Нажмите здесь для печати.