- BrainTools - https://www.braintools.ru -

Я стал ИИ-зависимым и вот как борюсь с этим

Текст написан человеком.

Я стал ИИ-зависимым и вот как борюсь с этим - 1

Моя зависимость медицински не подтверждена. Это субъективная оценка, а ниже мнение и попытка разобраться, как жить в эпоху нейросетей и не вредить себе. Мне нравится, на какие вопросы это меня натолкнуло, местами возникли философские дилеммы (оставлю все в конце).

Факт – языковые модели дарят мгновенное удовольствие и, вероятно, приводят к выбросу дофамина. Согласись: кайф, когда минимум времени и сил вложено, а задача закрыта. В каком-то смысле иногда создается ощущение безграничных возможностей. И на это я легко подсел. Забыл про последствия, которые это может иметь.

Мне кажется, глупо в 2026-м не использовать ИИ, и так же глупо полагаться только на него. Страны [1]уже вписывают [2]нейросети в правовые рамки. Законами регулируют использование нейросетей. Думаю, мне пора составить и свой регламент экологичного использования ИИ, чтобы не усугублять зависимость. Вот первая редакция. 

1. Правило первое. Базовое

Признаюсь: я просто обожаю ИИ. Даже грущу или расстраиваюсь, пугаюсь, если в нужный момент не могу отправить запрос языковой модели. Я люблю обращаться к ИИ по самым разным поводам: выбираю автозапчасти, делаю ремонт, работаю, изучаю мир. Выделю отдельно: обсуждаю межличностные отношения, физическое здоровье и ментальное состояние.

Последнее – штука сомнительная. Понимаю. Оправдания: механизм языковых моделей классный и мне нравится не только с психологом разбирать, что я чувствую, но и копаться в себе с ИИ. Размышлять, что произошло во взаимоотношениях с людьми.

Признаваться в этом стыдно. Понимаю, что ответы ИИ усредненные, не всегда достоверные и требуют проверки. Но все равно обращаюсь к нейросетям. И это норм, стрем – ничего не проверять и делать выводы, принимать решения на основе генераций.

Книги, психологи тоже могут искажать и заложить в нас дезинформацию. В целом пишу этот текст и понимаю, что мир и общество ей пестрит. От лжи и искажений не избавиться. Я тоже могу недостаточно проверить факты и неосознанно что-то сомнительное в вас посеять.

И ИИ оказался небезупречным, а так хотелось верить, что языковые модели допускают минимум неточностей. Любопытно замечать и проговаривать, что я подсознательно верю ИИ. Словно, он примитивнее человека и не умеет врать ради выгоды. А если и делает, то без злого умысла и без желания навредить.

Отсюда моя первая проблема – это полагаться на генерации без фактчекинга. Опять же неловко себе признаваться, но такой грех имеется.

Идеальный мир: получаешь инфу – проверь ее. Но мне это кажется утопией. Вряд ли я буду проверять в трех источниках ответ на вопрос из любопытства: с чем связано острое ухудшение демографии в Южной Корее.

Я стал ИИ-зависимым и вот как борюсь с этим - 2

1.2 Я лучше узнал того, с кем я говорю

Я ленился глубже изучать, как устроены языковые модели. Как часто они врут. Сложно разобраться в феномене лжи. Много душных, но справедливых условий: что такое ложь и правда, отсюда и сложность тестирования. Важнее то, что каждый из нас и так знает: нейросети могут врать, а точнее непреднамеренно искажать генерации.

Модели, словно студент на экзамене. Преподаватель (это мы с вами) задает вопрос, на который Петров не знает ответа. В таком случае студент будет пытаться угадать.
Петров открыто не заявит о том, что не знает ответ. И это пугает.

В исследовании [3]OpenAI объяснили, почему системы искусственного интеллекта [4] должны генерировать правдоподобную, но ложную информацию.

Языковые модели галлюцинируют, потому их обучают и оценивают так, что угадывать выгоднее, чем признавать неопределённость: за уверенный ответ им чаще ставят пятёрки. Поэтому галлюцинации – не загадка и не сбой, а результат обучения [5].

Получается, Петров рос в такой семье, где правильно попытаться угадать правильный ответ. При этом он будет основываться на тех знаниях, что он имеет.

В моей модели важно, чтобы ИИ признавался – “слушай, я не знаю ответ на твой вопрос, но могу предположить: ухудшение демографии связано ценами на жилье, гендерным неравенством”.  

Я стал ИИ-зависимым и вот как борюсь с этим - 3

1.3 Предвзятость

Есть еще момент – наш Петров может учиться по сомнительным учебникам.

Предвзятость и искажения могут быть связаны [6]с данными – модели учатся делать прогнозы, принимать решения, выявлять закономерности в огромных массивах. Но данные для обучения могут быть неполными. Отсюда и искажения. Модели, как люди, могут усваивать скрытые предубеждения из обучающих данных. Если он обучается на основе предвзятого материала, то и выдает предвзятые ответы.

Стоит чаще проверять нейросети. Это база. Банально. Но важно. На практике я понимаю, что не буду проверять каждый факт. Спрашивать что-то у ИИ и получать тут же простой и понятный ответ насколько удобно, что я продолжу это делать, осознавая, что генерация может быть недостоверна. Готов идти на эту сделку.

Но в важных вопросах, например, в части здоровья – ресерч обязателен. Как помочь себе при изжоге – это следует проверить в двух-трех источниках, а еще лучше  уточнить у врача.

ИИ – не единственный способ найти ответ. Люди, книги, статьи – все это по-прежнему рядом.

2.1 Правило второе – соблазн все упростить

ИИ удобен. Повторяю мысль осознанно. Никто не осудит за вопрос, а задать его можно в любой момент – телефон, ноут под рукой. Нейросети формируют зависимость, поскольку дают удобный путь, с ними нужно прикладывать меньше усилий. Они устраняют трудности. Не новая мысль – но использование ИИ может снижать [7]активность мозга [8].

Вижу, как языковые модели приучают меня все упрощать и хватать первый попавшийся ответ за достоверный и нужный. Теперь все хочется делать быстро и просто.

Я экс-журналист, ныне контент-маркетолог. Много креативлю и люблю это. Но часто испытываю соблазн – делегировать созидательные задачи ИИ.

Мозг с радостью цепляется за возможность не думать. И стоит пару раз попробовать наркотик – потом с трудом с него слезать.

Или я люблю сокращать статьи – не читать целиком, а прошу нейросеть дать самое главное в виде конспекта. А когда звучит сложно – упростить. Удобно. Быстро. Поверхностно. Возможно, искаженно.

Некоторые статьи вполне пригодны для краткого чтения, но главное не переставать читать целиком.

Не просить ИИ думать вместо меня.

2.2 В работе я использую технику “бутерброд”  

Как это выглядит. Моя идея / набросок → ИИ Усилитель →  Моя проверка / доработка. 

Сначала – сам, потом – ИИ. Придумываю идею, составляю план, пишу статью. А затем уже могу попросить задать критические вопросы или предложить улучшения. Что слабо? Как усилить? Это важно, чтобы не заменить мышление [9], творческий взгляд, а усилить его.

Не забывать [10] дорабатывать самому. Эта статья и мне самому кажется небезупречной, в ней много меня. Непредсказуемость, ирония, глубина, личная боль [11] или откровение – языковые модели так не умеет. Это индивидуальность. И ее важно сохранить.

В идеале: созидательность за мной, ИИ может предложить улучшения, задать критические вопросы, а дальше снова я, взвешиваю и принимаю решение, дорабатываю. 

Я стал ИИ-зависимым и вот как борюсь с этим - 4

2.3 ИИ меняет характер познания 

ИИ делает меня ленивым. Я не только сокращаю статьи, но и реже хочу читать их целиком. Плюс меняется само познание. Раньше я мог сделать конспект прочитанного от руки, сейчас чаще прошу сделать это ИИ. За мной только скопировать и вставить в избранное в телеграме.

Но трудности и скорость тоже важны. Думаю, скорость не должна быть слишком высокой в изучении нового. Есть мнение [12], что без пота и крови в процессе познания эффективность знания ниже. Или что оно другое [13] – да, вероятно, эффективное, но поверхностное, синтетическое.

Во-первых, ИИ может давать усредненный и поверхностный ответ. Здесь я тоже порой готов идти на эту сделку. Но не значит, что следует забыть про старый формат познания. Не стоит полностью перекладывать на ИИ способы закрепления знаний, логику [14], рассуждения. Это ослабляет аналитические и логические способности.

Слышали, что ИИ – новый калькулятор? Удобно. Быстро. Легко. Мне нравится эта метафора. И я буду пользоваться этой технологией, но не во всем – периодически собираюсь считать в столбик.  

Спасибо, что дочитали.

Я стал ИИ-зависимым и вот как борюсь с этим - 5

Список вопросов и философских дилемм, которые можно обсудить в комментариях:

1. Можно ли считать ложью искажения, которые закладывает нейросеть, если она обучена на базе данных с ошибками?
2. Люди тоже могут искажать факты, как и ИИ. Никому не доверять? Все проверять?
3. Так ли важна глубина и скорость в познании? 
4. Как вы регламентируете работу с ИИ? 

Автор: Clevertec_dev

Источник [15]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/24289

URLs in this post:

[1] Страны : https://www.reuters.com/technology/italy-enacts-ai-law-covering-privacy-oversight-child-access-2025-09-17/?utm_source=chatgpt.com

[2] вписывают : https://www.mindfoundry.ai/blog/ai-regulations-around-the-world?utm_source=chatgpt.com

[3] исследовании : https://arxiv.org/pdf/2509.04664

[4] интеллекта: http://www.braintools.ru/article/7605

[5] обучения: http://www.braintools.ru/article/5125

[6] связаны : https://www.chapman.edu/ai/bias-in-ai.aspx

[7] может снижать : https://arxiv.org/pdf/2506.08872v1

[8] мозга: http://www.braintools.ru/parts-of-the-brain

[9] мышление: http://www.braintools.ru/thinking

[10] забывать: http://www.braintools.ru/article/333

[11] боль: http://www.braintools.ru/article/9901

[12] мнение: https://medium.com/@beaufriedlander/on-ai-addiction-and-not-knowing-what-we-know-830207685217

[13] другое: https://www.businessinsider.com/oxford-warns-ai-making-teens-faster-but-shallower-thinkers-2025-10?IR=T

[14] логику: http://www.braintools.ru/article/7640

[15] Источник: https://habr.com/ru/companies/clevertec/articles/984832/?utm_source=habrahabr&utm_medium=rss&utm_campaign=984832

www.BrainTools.ru

Rambler's Top100