60% падение трафика, коллапс моделей и однообразие: что ИИ делает с интернетом. ai.. ai. Блог компании BotHub.. ai. Блог компании BotHub. Будущее здесь.. ai. Блог компании BotHub. Будущее здесь. ИИ.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное. нейросети.

Информационная экономика ИИ оказалась в ловушке собственного производства.

60% падение трафика, коллапс моделей и однообразие: что ИИ делает с интернетом - 1

ИИ-бум с самого начала был полон внутренних противоречий. Вопросы финансовой устойчивости, экологические последствия, стремительность внедрения без оглядки на последствия — каждый аспект заслуживает отдельного разговора. Но есть один, который, пожалуй, важнее остальных и при этом обсуждается реже: ИИ методично подтачивает ту самую информационную экосистему, без которой он не может существовать.

И делает это сразу с двух сторон.


Первая проблема: рука, которая кормит

Ни для кого не секрет, что ИИ нуждается в непрерывном потоке колоссальных объёмов данных, чтобы оставаться актуальным. А значит, технологические компании вынуждены прочёсывать интернет в промышленных масштабах, собирая всё, до чего могут дотянуться.

Точно так же не секрет, что для оправдания гигантских затрат на ИИ компании всеми силами стараются перенаправить пользователей: пусть люди получают информацию не из привычных источников, а через ИИ-ботов и ИИ-саммари. Это логика бизнеса — привязать пользователя к своей экосистеме.

Какое-то время казалось, что эти проблемы касаются только узких групп — профессиональных авторов, журналистов, создателей контента. Но чем дальше, тем очевиднее: это затрагивает абсолютно всех.


Цифры, которые говорят за себя

Недавний совместный отчёт Chartbeat и Axios изучил, как ИИ-саммари в поиске Google влияют на онлайн-издателей — от крохотных блогов до крупных медиа. Картина получилась нерадостная.

  • Малые издатели (1 000–10 000 просмотров в день) потеряли 60% трафика из Google

  • Средние (10 000–100 000) — 47%

  • Крупные (свыше 100 000) — 22%

  • Отдельное исследование зафиксировало падение трафика от ИИ-саммари на целых 80%

Pew Research раскрывает механизм: когда в результатах поиска появляется ИИ-саммари, пользователи гораздо реже переходят по ссылкам. Если точнее — они кликают на ссылки вдвое чаще, когда этой функции нет.

И при этом, несмотря на весь этот обвал, Google Search по-прежнему остаётся главным источником трафика для большинства издателей.

Важно уточнить: слово «издатели» — это не только новостные сайты. Это рецепты, инструкции, блоги, образовательные ресурсы, независимые авторы — по сути, всё, что вы читаете в интернете и что делает его полезным и живым.


Кстати, об инструментах. Пока информационная экосистема переживает серьёзную перестройку, тем важнее использовать ИИ осмысленно. Если вам нужен доступ ко всем ключевым моделямб Claude, GPT, Gemini, загляните на BotHub.

60% падение трафика, коллапс моделей и однообразие: что ИИ делает с интернетом - 2

Для доступа не требуется VPN, можно использовать российскую карту.

По ссылке вы можете получить 300 000 бесплатных токенов  для первых задач и приступить к работе с нейросетями прямо сейчас!


Замкнутый круг, из которого нет выхода

А дальше — простая арифметика. Этим издателям нужен трафик, чтобы зарабатывать. Зарабатывать, чтобы продолжать создавать контент. Меньше трафика — меньше дохода. Меньше дохода — меньше качественного контента. Меньше контента — меньше ценных данных для обучения ИИ.

Улавливаете? ИИ подрывает ту самую руку, которая его кормит.

Выходит, что попытка заменить ИИ человеческие связи и человеческие источники информации подавляет тот самый человеческий вклад, от которого ИИ зависит.

И поскольку сильнее всего страдают именно малые и независимые издатели — как правило, наиболее разнообразные и самобытные голоса — последствия ощущаются одновременно на двух уровнях. Это обедняет медиа-ландшафт, делая и то, что мы читаем, и то, на чём обучаются модели, более однообразным и плоским. Нишевые, уникальные, нестандартные голоса заглушаются — и от этого проигрывают все: и люди, и ИИ.

Более того, в попытке сократить издержки или подстроиться под алгоритмы значительная часть онлайн-контента уже сейчас создаётся ИИ. И вымывание малых издателей с рынка, скорее всего, только увеличит долю машинного контента в интернете.

Что плавно подводит нас ко второй проблеме.


Вторая проблема: хвост, который пожирает сам себя

Всё, что делает генеративный ИИ, — это находит и воспроизводит статистические закономерности в огромных массивах данных. Но даже лучшие модели не безупречны. Ведь закономерность может существовать в числах, но не в реальности. У нас, людей, та же история — вспомните, как вы видели лицо на облаке или на кофейной пенке.

И вот что начинает происходить, когда ИИ обучают на ИИ-генерированных данных.

Машинный контент несёт в себе микроскопические, едва различимые паттерны, которых нет в человеческом тексте. Именно поэтому у нас иногда срабатывает ощущение: «что-то здесь не так, это писал не человек». Когда эти данные начинают скармливать обратно модели, она начинает придавать всё больший вес этим нечеловеческим закономерностям.

Поначалу это проявляется как лёгкое снижение качества. Но если процесс продолжается, модель в какой-то момент начинает ставить генерированные паттерны выше человеческих — и тогда наступает то, что исследователи называют «коллапсом модели»: она начинает выдавать откровенную бессмыслицу.

Это не теоретическая конструкция — это хорошо изученный феномен.


Масштаб проблемы

Давайте посмотрим на цифры.

  • По данным Axios, к середине 2025 года более половины публикуемого онлайн-контента было создано ИИ.

  • Веб-скрейпинг составлял минимум 82% обучающих данных ChatGPT-3. Точная доля для текущих моделей неизвестна, но ИИ-компании сами признавались, что данные «заканчиваются» и приходится всё активнее скрести низкокачественные веб-источники. Можно с уверенностью предположить, что эта доля не снизилась.

  • Инструменты для обнаружения ИИ-контента работают ненадёжно: точность колеблется от 57% до 95%. Но уровень ложных срабатываний — когда человеческий текст определяется как ИИ — существенный. Одно исследование зафиксировало 50% ложных срабатываний у ведущего инструмента.

  • И ещё деталь, которую нельзя игнорировать: ложные срабатывания предвзяты в отношении разнообразия. Эти инструменты чаще помечают как ИИ тексты авторов с нейроотличиями и тех, для кого английский — не родной язык. То есть и без того уязвимые голоса подавляются ещё сильнее.


Порочный цикл запущен

Итого: ИИ-компании используют огромные массивы веб-данных для обучения. Но более половины онлайн-контента — ИИ-генерированное. Инструменты фильтрации не справляются: они пропускают машинный контент и ошибочно выбрасывают человеческий.

Результат: сегодняшние модели обучаются на собственном выхлопе — или на выхлопе своих предшественников. И это не теория: исследователи обнаружили вполне реальный, измеримый риск того, что текущие модели движутся к коллапсу.


Синтетические данные — не спасение

Предлагаемое решение — синтетические данные: ИИ-генерированные данные, специально спроектированные для обучения моделей.

Звучит логично. Но на практике этот метод буксует: он не слишком улучшает модели, усиливает их слабые стороны, ухудшает работу в реальных условиях и сам по себе рискует спровоцировать коллапс.

Синтетические данные — это скорее временный костыль, а не полноценная замена подлинным, качественным человеческим данным.


Двойной удар

ИИ-компании залили интернет потоком машинного контента. И теперь те самые данные, от которых зависят модели, загрязнены до неузнаваемости — а это загрязняет и сами модели, запуская самоподдерживающийся порочный цикл.

Параллельно: лавина ИИ-генерированного контента заглушает интересные, разнообразные и ценные человеческие голоса, превращая интернет в однообразную монокультуру.

Это тревожно для нас, людей. Но не менее тревожно и для ИИ: качественных человеческих данных в сети, скорее всего, публикуется меньше, чем прежде. А ведь именно на них всё и держится.


Заключение

Если сформулировать простым языком: информационная экономика ИИ подрывает сама себя — и заодно всех, кто в ней участвует, включая ИИ-компании.

Она вытесняет и лишает ресурсов тех людей, которые производят данные, от которых зависит ИИ. И она заливает интернет таким количеством низкокачественного контента, что рискует дестабилизировать собственное основание.

Это неустойчивая ситуация.

Можно ли её исправить? Вероятно, да. Разумное регулирование, реформа авторских прав, защита создателей контента — всё это могло бы помочь. Но эти решения предполагают ограничение влияния крупнейших технологических компаний, а это с каждым днём становится сложнее.

Мы оказались в нисходящей спирали. Вопрос — успеем ли мы из неё выбраться, пока ещё есть такая возможность.

Автор: cognitronn

Источник