Как ИИ попал в нашу питьевую воду. И почему никто не знает, что с этим делать. ai.. ai. Блог компании BotHub.. ai. Блог компании BotHub. Будущее здесь.. ai. Блог компании BotHub. Будущее здесь. ИИ.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное.. ai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное. нейросети.
Как ИИ попал в нашу питьевую воду. И почему никто не знает, что с этим делать - 1

В 2025 году DOGE под руководством Илона Маска активно использовала ИИ. Как показали последующие расследования, система неправильно интерпретировала контрактные данные Министерства по делам ветеранов, не разобралась в правилах Министерства жилищного строительства и совершила множество других серьёзных ошибок. И, разумеется, галлюцинировала на каждом шагу. Последствия оказались весьма ощутимыми.

И всё же, как ни парадоксально, мы должны быть благодарны за этот случай — он открыл нам глаза на то будущее, к которому нас настойчиво ведут техно-энтузиасты и бенефициары ИИ-бума.

А если вам кажется, что всё это вас не касается — у меня не самые приятные новости. DOGE — лишь один эпизод. Но ИИ уже повсюду. И это надолго.

Он проник в нашу питьевую воду. И теперь от него не избавиться.


Куда исчезли люди?

Каждый день неосмотрительное использование ИИ понемногу отравляет нашу повседневность. Кого-то больше, кого-то меньше — но последствия расползаются всё глубже.

Показательный пример: процесс найма.

В недалеком прошлом (поразительно, но это было всего 3–4 года назад!) вы могли рассчитывать, что ваше резюме прочитает живой человек, наделённый интуицией, эмпатией и здравым смыслом.

Сегодня это уже не гарантировано. Первичный отбор всё чаще делает ИИ — тот самый, который не понимает контекста, работает по жёстким шаблонам и регулярно выдаёт ошибочные результаты.

Так что если на ваше резюме никто не отвечает — вполне возможно, оно просто не прошло этот первичный фильтр.

И дело не обязательно в ваших квалификациях. Дело может быть в возрасте. Система просто решит, что вы «слишком опытный» или, наоборот, «недостаточно опытный».

Иногда это следствие заложенных в алгоритм критериев. Иногда — просто вычислительная ошибка. Но пожаловаться некому. Попросить объяснения — не у кого.

Алгоритм, в отличие от человека, не несёт личной ответственности за последствия. И не испытывает неловкости (одна HR-специалист провела со мной формальное интервью в прошлом году — и было заметно, как некомфортно ей от понимания, что это лишь процедура).

Другой яркий пример — повсеместный ИИ-контент низкого качества. От него уже не скрыться. По разным оценкам, около половины всего интернет-трафика генерируется ботами, значительная часть которых используется не в созидательных целях. Что неудивительно — штамповать блестящий, но пустой контент практически ничего не стоит.

Но проблема не только в том, что такой контент вытесняет человеческих авторов экономически. Он затрудняет само их обнаружение. Крупицы подлинного творчества теряются в потоке генерированного материала. Человеческому голосу всё труднее быть услышанным.


К слову об инструментах. Одно дело — хайп и громкие обещания. Другое — реальная работа с ИИ как с инструментом. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini и другим — без привязки к одному провайдеру, без идеологии и без переплат, посмотрите на BotHub.

Как ИИ попал в нашу питьевую воду. И почему никто не знает, что с этим делать - 2

Для доступа не требуется VPN, можно использовать российскую карту.

По ссылке вы можете получить 300 000 бесплатных токенов  для первых задач и приступить к работе с нейросетями прямо сейчас!


Кто несёт ответственность?

А что насчёт ошибок ИИ в критически важных областях — медицине, праве, финансах, образовании, науке, военном деле?

Что насчёт растущего экологического следа от обучения моделей (это отдельная большая тема)?

Не думаю, что нужно подробно расписывать масштаб последствий. Но главная проблема — не в самой технологии. Она в недостаточном внимании к её ограничениям со стороны тех, кто её продвигает.

Безусловно, современные языковые модели могут быть полезным инструментом. Вопросы вызывает другое:

  1. Само название «искусственный интеллект» — поскольку LLM работают принципиально иначе, чем человеческое мышление.

  2. Недостаточная прозрачность относительно реальных ограничений и рисков этих систем.

  3. Стремление внедрять ИИ в контексты, где его ошибки могут иметь серьёзные последствия для людей и организаций.

Результаты такого подхода уже видны — и не только тем, кто становится их непосредственными жертвами. Они очевидны и тем, кто создаёт и распространяет эти технологии.

И вот что вызывает особую озабоченность: многие из тех, кто выигрывает от ИИ-бума, понимают связанные с ним риски — по крайней мере, в среднесрочной перспективе. Как же они на это реагируют?


Два типа мышления в индустрии

Отношение к проблеме — своего рода индикатор. Людей, влияющих на ситуацию, можно условно разделить на две группы: тех, кто признаёт ограничения, но чувствует себя связанным бизнес-логикой, и тех, кто принципиально против любого сдерживания.

Прагматики в сложном положении

К первой группе относятся те, кто непосредственно связан с разработкой технологии. Такие люди, как Сэм Альтман, Дарио Амодеи или Демис Хассабис (сюда, возможно, можно отнести и Илона Маска).

Они сами периодически предупреждают об опасностях ИИ. Иногда это выглядит как элемент публичной стратегии. Но так или иначе, они признают потенциальные последствия и, по-видимому, не хотят, чтобы возможные проблемы связывались с их именами.

Однако они вынуждены действовать в условиях конкурентной гонки: либо ты развиваешь продукт в борьбе за первенство, либо рискуешь потерять позиции. Это реальное давление, которое трудно игнорировать.

Принципиальные противники регулирования

Вторая категория вызывает больше вопросов. Характерный пример — Питер Тиль с его концепцией «Антихриста». В его понимании, это силы, препятствующие «прогрессу» — будь то политические лидеры, институты или регуляторы, стремящиеся контролировать развитие технологий.

Спектр препятствий в этой логике весьма широк — от экологических активистов до политических фигур любого направления и европейской бюрократии. Иными словами, любой, кто ставит вопрос о контроле над «прорывными технологиями».

Тиль — не единственная влиятельная фигура с такими взглядами. В индустрии существуют целые организации и фонды, работающие против регулирования ИИ.

В августе 2025 года была создана сеть комитетов политических действий (PAC) под названием Leading the Future с бюджетом в 100 миллионов долларов — для влияния на промежуточные выборы 2026 года и продвижения благоприятного для ИИ законодательства.

Их основные цели [1, 2, 3]:

  • Лоббирование выгодных для индустрии регуляций и противодействие кандидатам, выступающим за ограничения

  • Поддержка политиков обеих партий, разделяющих про-технологическую повестку

  • Противодействие критическим нарративам со стороны исследователей, предупреждающих о рисках

Среди ключевых спонсоров — Andreessen Horowitz ($50M), Грег Брокман из OpenAI с супругой ($50M), а также Meta* с собственным супер-PAC.

Что добавляет озабоченности: нынешний политический климат в США благоприятствует именно такому подходу. Администрация официально провозгласила курс на государственную поддержку ИИ, а возможности для независимого институционального надзора сейчас ограничены.


Встречное движение

Разумеется, у сторонников ускоренного развития есть оппоненты. В марте 2024 года Институт будущего жизни (Future of Life Institute) опубликовал открытое письмо с призывом приостановить обучение систем мощнее GPT-4 как минимум на 6 месяцев. Основной аргумент: ИИ развивается быстрее, чем мы способны его понять, и такая траектория несёт серьёзные риски.

Среди подписантов — президент FLI Макс Тегмарк, Илон Маск, Стив Возняк, Юваль Ной Харари и тысячи исследователей и предпринимателей.

Письмо привлекло значительное внимание и, вероятно, повлияло на ряд институциональных изменений.

В США:

  • Администрация Байдена выпустила исполнительный указ по ИИ (2023)

  • По инициативе Белого дома ведущие ИИ-компании приняли добровольные обязательства по безопасности

  • Федеральные агентства (NIST, FTC и др.) разработали стандарты использования ИИ

  • Ряд штатов принял законы о регулировании ИИ и защите граждан

В Европе — AI Act, комплексное законодательство для стран ЕС.

Однако ни одна из этих мер пока не даёт полноценного контроля над ИИ-гонкой. Ключевая сложность — регулирование выпуска новых моделей. В США на это нет значимых ограничений, а именно американские компании остаются лидерами индустрии.


Смещённый фокус дискуссии

К сожалению, те, кто выступает за осмотрительность в развитии ИИ, не всегда точно определяют, где именно сосредоточены наибольшие риски.

Многие (включая FLI) фокусируются на гипотетических угрозах от будущего AGI, а не на реальных проблемах существующих систем. Парадоксальным образом это подпитывает миф о скором появлении «настоящего» искусственного интеллекта — и поддерживает инвестиционный интерес.

Ведь идея о том, что AGI на основе LLM возможен и неизбежен, по-прежнему жива — несмотря на более осторожные оценки ряда ключевых фигур, включая Илью Суцкевера, и мнения многочисленных экспертов.

А AGI, согласно этому нарративу, даст беспрецедентную власть тому, кто создаст его первым.

Пока эта идея живёт в умах инвесторов — ИИ-бум будет продолжаться.

Но более взвешенный взгляд подсказывает: реальная проблема — не в гипотетическом будущем. Она в сочетании завышенных ожиданий от текущих систем и стремления внедрять их повсюду, невзирая на очевидные ограничения.

Вера, как известно, не требует доказательств. Когда есть убеждённость — альтернативные точки зрения воспринимаются с трудом.


Вопрос об отправной точке

ИИ часто сравнивают с ядерным оружием, и это сравнение работает на нескольких уровнях.

Ещё в 2015 году Сэм Альтман предложил Илону Маску идею создать нечто вроде «Манхэттенского проекта для ИИ» — в противовес корпоративным проектам Google. Отсюда — название OpenAI.

Была и личная линия в этой аналогии: день рождения Альтмана совпадает с днём рождения Роберта Оппенгеймера. Альтман иногда упоминает об этом, хотя это, конечно, не более чем совпадение.

Однако сама аналогия с ядерным оружием имеет свои пределы. Ядерное оружие — парадоксальное изобретение: угроза цивилизации и одновременно, возможно, фактор, сдерживающий глобальные конфликты.

С ИИ ситуация иная.

Он претендует на то, чем не является. Безусловно, его создали выдающиеся специалисты. Но их понимание интеллекта — это понимание инженеров, а не исследователей человеческого мышления.

Это, разумеется, моя интерпретация, основанная на том, что говорят сами разработчики. Вы можете прийти к собственным выводам.

Возьмём Джеффри Хинтона, одного из пионеров глубокого обучения. Объясняя работу нейронных сетей, он апеллирует к функционированию биологических нейронов. Но с точки зрения современной нейронауки, эти аналогии значительно упрощают реальность.

Я не ставлю под сомнение его достижения в своей области. Но эта область изучает вычислительные системы — не человеческое мышление. Это разные дисциплины с разными объектами исследования.

Иными словами, вопрос — в исходных допущениях. И последствия этих допущений могут оказаться весьма значительными.


Вместо заключения

Если человечеству предстоят серьёзные испытания, они не обязательно примут форму внезапной катастрофы. Куда вероятнее — постепенное, незаметное размывание способности отличать реальность от её имитации.

Замечаете ли вы признаки этого процесса?

Чувствуете ли, как всё труднее находить подлинный человеческий голос в потоке генерированного контента?

Видите ли, как компании сокращают квалифицированных специалистов под флагом «оптимизации»?

Замечаете ли, как само понятие ИИ всё больше обрастает мифологией?

Не кажется ли вам, что дискурс вокруг ИИ становится всё более догматичным?

Если да — значит, нас волнуют схожие вещи.

Но озабоченность — это ресурс. Она защищает от самодовольства и инерции.

Я не утверждаю, что мы уже в тупике. Но вызов перед нами — серьёзный. И он парадоксален: он порождён нашей собственной изобретательностью. Однако по сути это не ново. История человечества — это история о том, как креативность требует уравновешивания коллективной мудростью. С переменным успехом — но пока нам это удавалось.

Остаётся надеяться, что этой мудрости хватит и на сей раз — чтобы технологии оставались инструментами, а не заменой человеческого суждения.

Meta* и ее продукты (Facebook, Instagram) запрещены на территории Российской Федерации

Автор: cognitronn

Источник

Rambler's Top100