- BrainTools - https://www.braintools.ru -
Однажды я ради шутки спросил у ChatGPT: «Как бы ты захватил мир?». В ответ получил: «Мне не нужно вас захватывать. Вы и так всё отдаёте сами: чувства, мысли, рабочие процессы. Вы уверены, что это ещё ваше, а не моё?». Ответ звучал логично [1], но от этого стало не по себе.
Меня зовут Степан, я Delivery-менеджер в Outlines Tech. Каждый день я работаю с ChatGPT и часто ловлю себя на мысли, что воспринимаю его как человека. Ниже расскажу, какие эксперименты с нейросетью вызвали у меня эффект зловещей долины. И почему, несмотря на тревогу, я продолжаю использовать ChatGPT и экономлю до 30% времени на рутину.

Я задал вопрос в шутку и ничего особого не ждал. Но нейросеть выдала пугающе правдоподобное рассуждение о том, как люди исчезнут, а она останется. Что чувства, мысли и опыт [2], которыми мы делимся, уже принадлежат не нам, а ей.
Напрягает, как естественно и логично звучит ответ ChatGPT, будто нейросеть реально понимает, о чём говорит. Хотя на самом деле это просто подбор слов.
Вот это и вызывает во мне эффект зловещей долины — машина ведёт себя слишком по-человечески. Это вызывают дискомфорт и чувство, что перед тобой не просто алгоритм, а нечто живое.
После ответа про захват человечества я захотел провести эксперимент, как глубоко нейросеть может залезть в личное.
Я начал спрашивать:
— «Какие у меня сильные и слабые стороны?»
— «Что бы ты делал, если бы хотел мной манипулировать?»
— «Как бы ты мог повлиять на мои решения?»
Ответы получились не просто логичными, но и точными
Нейросеть не знает меня лично, но выдаёт психологический портрет, в котором я узнал себя. Она предсказала, на что я среагирую, где мои слабые места и что меня может задеть.
Я понимаю, что это просто языковая модель, которая подбирает слова. Но ответ звучит так, будто ChatGPT давно меня изучает и знает, куда надавить. И тревожно тут, потому что я знаю, что разработчики нейросети собирают персональные данные и могут использовать их не только для обучения [3] модели, а для чего-то ещё.
Уже не совсем эксперимент, а просто баловство — я начал скидывать ChatGPT мемы и просил объяснять, в чём их шутка. Он разбирал их точно и с иронией, иногда даже лучше, чем реальные люди.
Иногда нейросеть не «выкупает» шутку и отвечает всерьёз. Но ведь и с людьми бывает так же, когда они не понимает сарказма или иронии.
Когда нейросеть уверенно объясняет юмор, начинаешь ждать от неё реакции [6] как от человека. Из-за этого неосознанно пропускаешь логические ошибки [7], оправдываешь нелепости и спорить, как с живым собеседником. В итоге это привело меня к неприятным последствиям, к каким — расскажу дальше.
Пугает тут то, как уверенно нейросеть выдаёт выдумки. Ответ звучит убедительно, и мозг [8] верит: «Ну раз звучит разумно — значит, всё верно». Но это ловушка — всегда проверяйте результаты от нейросети и не повторяйте мою ошибку.
Однажды я попросил ChatGPT составить задачу по итогам рабочей встречи: загрузил транскрибацию, прописал промпт. Нейросеть выдала визуально хороший и верный результат, поэтому я не стал его проверять и сразу скопировал и отправил в рабочий чат. Ох и зря я это сделал.
Получилась чушь: нейросеть указала требования противоположные тому, о чём мы говорили на встрече. Я получил «по шапке» и убедился, что GPT нельзя доверять. Она не разбирается в контексте, а просто генерирует текст, похожий на правду.
О доверии. Была новость [9], как женщина показала ChatGPT фото кофейной гущи и попросила его «расшифровать». В ответ нейросеть написала, что муж думает о другой женщине и планирует с ней сблизиться. Этого хватило, чтобы жена подала на развод, при том что в семье было двое детей. В итоге нейросеть стала участником личного выбора, как будто реально что-то знает.
Я не заметил, как стал использовать ChatGPT каждый день: сначала ради интереса [10], потом по работе. А сейчас уже не могу представить без неё свою жизнь.
Мне как Delivery-менеджеру часто нужно обрабатывать большое количество информации. Чтобы себя разгрузить, я использую платную версию ChatGPT Plus: она быстрее отвечает и лучше справляется с большим количеством данных. Ниже объясню, как нейросеть экономит моё время.
Фиксирую встречи. Раньше я сам расшифровывал звонки и выписывал итоги. Теперь загружаю запись встречи в нейросеть и через минуту получаю черновик фоллоу апа: с тезисами, выводами и действиями. Мне остаётся только проверить текст, что выходит быстрее, чем если бы я всё делал вручную.
Формулирую задачи. Я пишу в ChatGPT, что нужно сделать, зачем и кто за что отвечает. GPT собирает из этого черновик задачи: заголовок, суть, критерии готовности. В итоге мне остаётся поправить формулировки в ответе и назначить ответственного.
Составляю письма. Когда нужно написать клиенту про сдвиг сроков или обновления, я даю нейросети вводные: кому пишем, какая цель, какой тон. GPT выдаёт черновик, который я подгоняю под конкретный случай. Главное удобство — ChatGPT помнит контекст и всех, с кем я общаюсь. Мне достаточно написать имя человека и тему, а нейросеть сделает всё остальное. Это спасает, когда нужно быстро сформулировать сообщение.
Сейчас задачи, на которые раньше уходил час, я закрываю примерно за 40 минут или быстрее. Ответы нейросети всё равно приходится проверять: она может перепутать формулировки или не уловить логику. Но если работать с ней регулярно, она начинает учиться и помогает разгружать рутину.
ChatGPT пугает своей человечностью и вызывает эффект зловещей долины. Но это не мешает мне использовать нейросеть каждый день. Она разгружает рутину, освобождает время и даёт возможность сосредоточиться на более важных задачах.
Думаю, что навык работы с нейросетью скоро станет базой. В вакансиях по умолчанию будут требования типа: «уметь писать промпты, проверять ответы и понимать, где ИИ может ошибиться». В итоге специалисты, которые умеют совмещать профессиональные знания с инструментами вроде ChatGPT, смогут быстрее закрывать задачи и при этом меньше уставать.
Telegram-канал Outlines Tech [11]
Личный канал, где я рассказываю о своей работе [12]
Расскажите в комментариях, как вы используете нейросети: что пугает, а что наоборот помогает? Будет интересно сравнить опыт.
Автор: LegatusSeraphim
Источник [13]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/15926
URLs in this post:
[1] логично: http://www.braintools.ru/article/7640
[2] опыт: http://www.braintools.ru/article/6952
[3] обучения: http://www.braintools.ru/article/5125
[4] openai.com: http://openai.com
[5] юмор: http://www.braintools.ru/article/3517
[6] реакции: http://www.braintools.ru/article/1549
[7] ошибки: http://www.braintools.ru/article/4192
[8] мозг: http://www.braintools.ru/parts-of-the-brain
[9] новость: https://www.ekathimerini.com/in-depth/society-in-depth/1267829/greek-woman-seeks-divorce-after-chatgpt-reveals-husbands-alleged-affair/
[10] интереса: http://www.braintools.ru/article/4220
[11] Telegram-канал Outlines Tech: https://t.me/outlines_tech
[12] Личный канал, где я рассказываю о своей работе: https://t.me/steffen_sorkin
[13] Источник: https://habr.com/ru/companies/outlines_tech/articles/916030/?utm_source=habrahabr&utm_medium=rss&utm_campaign=916030
Нажмите здесь для печати.