«Все крупные корпорации и социальные сети уже давно хотят помечать контент, созданный искусственным интеллектом, отдельным специальным признаком. Безусловно, можно говорить о том, что это делается ради заботы о пользователях — чтобы люди не сидели бесконечно и не потребляли абсолютно одинаковый контент. Но у этой инициативы есть и совершенно эгоистичные цели: платформам жизненно необходимо физически отделить контент, созданный живыми людьми, от материалов, сгенерированных нейросетями».
Давайте детальнее копнем в проблему
Думаю, каждый, кто обитает на профильных форумах, уже тысячу раз слышал о проблеме засилья однотипного нейроконтента. Скорее всего, вы слышали и о том, что от этого процесса сильно «тупеют» будущие поколения самих нейросетей. Ведь они учатся на том, что мы лайкаем, что мы выкладываем и как мы себя ведем. А в эпоху, когда производство контента стало вопросом одного клика, люди — часто просто ради минутного удовольствия — заваливают сеть новыми роликами, рилсами и статьями. Яндекс.Дзен и другие площадки превращаются в конвейеры, где контент почти никто не вычитывает от начала до конца. Ну, может быть, один процент самых продвинутых и «замороченных» пользователей (да-да, это я про тех, кто сейчас это читает) действительно вникает в суть.
Весь этот массив данных попадает в интернет и помечается алгоритмами как релевантный для обучения новых моделей. И тут мы сталкиваемся с интересной проблемой. Если первые статьи по той же журналистике или программированию создавались людьми на основе их реальной экспертизы, с их уникальными ошибками, перфекционизмом или даже ленью, то последующий контент пишется уже на базе того, что нейросети «прочитали» у других нейросетей.
Проблема в том, что нейросети усредняют всё безбожно: наши идеи, наши шутки и наши неточности. Поскольку нейросеть — это машина, которая просто предсказывает следующее слово с наибольшей вероятностью, на выходе мы получаем всё более и более «средний» результат. Каждое следующее поколение моделей, обучающееся на «трудах» своих предшественников, будет становиться всё более банальным и скучным. Ведь настоящий интерес всегда вызывает неожиданный ход, резкий поворот мысли, неожиданное открытие, фантазия или умозаключение. А нейросети не умеют генерировать неожиданности. Для машины неожиданность — это статистическая ошибка, в то время как в реальности неожиданность — это исключительно психологическое «отклонение» живого автора.
Ло��ка меда в бочку дегтя
Прежде чем искать пути спасения нейросетей от самих себя, давайте сделаем один важный и положительный для всех нас вывод: нейросети никогда не заменят людей полностью. Просто потому, что они не могут контролировать качество и отвечать за смысл. Да, на нашем веку многие процессы будут автоматизированы на 100% — вся рутинная сборка, копирайтинг и преобразование смыслов из одного вида в другой (например, с русского языка на C++). Но это не «смерть профессий», это их трансформация.
Нейросети позволяют нам не задумываться над базовыми навыками, даже если они бесконечно далеки от нашей сферы деятельности. И тут есть важный нюанс. Обычный Junior-разработчик, который умеет только «клепать сайты», даже с помощью нейросети никогда не создаст по-настоящему качественный продукт для медицины. У него нет главного — контекста и смысла. А вот хороший медик, если он действительно заморочится, теперь легко сделает и сайт, и приложение для коллег. Нейросеть берет на себя ту огромную массу технических компетенций, которых врачу раньше не хватало для реализации своих идей. Эксперт теперь получает «руки», которые работают со скоростью мысли.
В этом контексте появляется одна главная мета-профессия — навык стратега. Умение выстраивать план, видеть потенциальные узкие места и управлять нейросетью так, чтобы она в них не попадала. Это станет базовым навыком, который нужно будет прививать еще со школы.
Так что же мы можем сделать, чтобы спасти нейросети от отупения?
Как всё-таки помочь самим нейросетям не задохнуться в собственном «пластике»? У меня нет универсального рецепта, но есть три вектора для обсуждения:
-
Поголовная пометка контента. Вопрос в том, возможно ли это технически? Скорее всего, нет. Люди будут выкладывать сгенерированные тексты на свои ресурсы без всяких пометок, и они всё равно попадут в обучающие выборки.
-
Фильтрация на основе «среднего». Можно пробовать сверять новые материалы с тем, что могли бы написать текущие модели, и убирать из обучения всё, что просто повторяет уже известные истины. Но как в этом «отклонении» отличить гениальное прозрение или живую фантазию от обычного галлюциногенного бреда, которого сейчас плодится не меньше?
-
Элитарность источников. Обучаться только на материалах проверенных, признанных авторов. Но где взять столько эксперто��, чтобы их знаний хватило на обучение моделей для восьми миллиардов человек? И как автоматизировать проверку того, что автор реально создает смыслы, а не просто удачно переупаковывает чужой контент?
Еще две идеи от Co-pilot
Раз уж мы ищем выход, добавлю еще пару мыслей со стороны «машины»:
-
Proof of Human (Криптография человечности). Возможно, спасение не в пометке ИИ-контента, а в верификации человеческого. Использование цифровых подписей на уровне браузеров или профессиональных редакторов, которые подтверждают: «Этот текст был набран руками, а не вставлен из буфера обмена за одну секунду». Если мы не можем пометить весь «пластик», нам придется выдавать сертификаты качества «живому» контенту. (Комментарий автора: у меня была мысль, что радикально проблема решится только тогда, когда вход в сеть станет поголовно биометрическим, а любое действие — верифицированным по ID человека. Но это, скорее всего, вопрос следующего столетия или как минимум ближайших 50 лет. Предлагать такое на обсуждение сейчас даже немного страшно).
-
Эволюция через конфликт (Анти-усреднение). Мы можем обучать нейросети не на «наиболее вероятных» ответах, а наоборот — поощрять их за поиск редких, но логически верных связей. Нужно создавать пары нейросетей, где одна пытается «усреднить» мысль, а вторая — жестко критикует за банальность и требует неожиданных метафор или структурных ходов. То есть искусственно вносить в ИИ то самое «психологическое отклонение» автора. (Комментарий автора: когда человек включает фантазию, он обычно работает в своей экспертной области. У нейросетей нет этого специфического «веса» экспертности, они эксперты во всем сразу. А когда ты эксперт во всем, ты выдаешь либо банальность, либо невозможную чушь. Второе — человеку нужны внешние стимулы, то самое «яблоко Ньютона». Без внешних факторов и форс-мажоров, подталкивающих искать новые пути, модели не смогут генерировать нестандартные, но логически верные ответы).
А дальше предлагаю перейти в комментарии. Если будет интерес к этой теме, то, может быть, напишу какие-то выводы и резюме или новые мысли в следующей статье.
Автор: Real_Egor


