Модератор Reddit предупредил об опасности ИИ-ответов на сабреддите по здоровью. reddit.. reddit. дезинформация.. reddit. дезинформация. здоровье.. reddit. дезинформация. здоровье. Информационная безопасность.. reddit. дезинформация. здоровье. Информационная безопасность. искусственный интеллект.. reddit. дезинформация. здоровье. Информационная безопасность. искусственный интеллект. медицина.. reddit. дезинформация. здоровье. Информационная безопасность. искусственный интеллект. медицина. модераторы.. reddit. дезинформация. здоровье. Информационная безопасность. искусственный интеллект. медицина. модераторы. модераторы сабреддитов.. reddit. дезинформация. здоровье. Информационная безопасность. искусственный интеллект. медицина. модераторы. модераторы сабреддитов. посты.. reddit. дезинформация. здоровье. Информационная безопасность. искусственный интеллект. медицина. модераторы. модераторы сабреддитов. посты. социальные сети.. reddit. дезинформация. здоровье. Информационная безопасность. искусственный интеллект. медицина. модераторы. модераторы сабреддитов. посты. социальные сети. соцсети.

Модератор сабреддита «Семейная медицина» заметил, что система «Ответы Reddit» (Reddit Answers), работающая на основе искусственного интеллекта, отвечает авторам не по теме их запросов и «распространяет крайне опасную дезинформацию». При этом модераторы «не могут отключить эту функцию».

Модератор Reddit предупредил об опасности ИИ-ответов на сабреддите по здоровью - 1

Модератор заявил: «Правило №6 этого раздела — никакой дезинформации, и если бы мы могли отключить эту функцию, мы бы это сделали. В настоящее время мы не поддерживаем и не можем поддерживать ответы Reddit и призываем всех пользователей этого раздела игнорировать всё, что там написано».

В другом сабреддите медицинский работник описал, что произошло при тестировании Reddit Answers: «Я опубликовал пост в r/familymedicine, и под ним появилась ссылка с информацией о лечении хронической боли. В первом посте, на который он ссылался, призывали людей прекратить приём назначенных лекарств и принимать высокие дозы кратома, который является запрещённым (в некоторых штатах) и нерегулируемым веществом. Я категорически не одобряю это. Я также спросил о медицинских показаниях к применению героина. Один пост предупреждал о возможности наркозависимости и ссылался на ресурсы для преодоления кризиса и реабилитации. Другой связан с постом, где кто-то утверждает, что героин спас ему жизнь и помог справиться с хронической болью. В публикации содержался призыв к людям прекратить приём назначенных лекарств и вместо этого употреблять героин. Героин входит в список I в США, что означает отсутствие приемлемого применения. Он вызывает невероятную зависимость и опасен. Он стал причиной стольких смертей».

Медработник призвал отключить функцию ИИ-ответов в подразделах, посвящённых медицине и психическому здоровью, либо разрешить модераторам отказаться от её использования. Кроме того, по его мнению, нужно ввести более эффективные фильтры для пользователей, задающих вопросы, связанные со здоровьем, в разделе Reddit Answers. 

Официальный представитель Reddit уже ответил на запрос: «Мы внесли некоторые изменения в отображение раздела Answers, основываясь на этих отзывах. В дальнейшем Reddit продолжит корректировать информацию, основываясь на том, что мы видим и слышим». 

Пока же в сабреддите «Семейная медицина» всё ещё размещён закреплённый пост от модератора для пользователей с предупреждением о том, чтобы они «держались подальше от искусственного интеллекта». 

Ранее модераторы сообщества Reddit об искусственном интеллекте Pro-AI рассказали о сошедших с ума пользователях ChatGPT — «шизопостерах», которые считают, что «они совершили какое-то невероятное открытие, создали бога или стали богом». По словам модераторов, они незаметно банят таких юзеров, но тренд нарастает.

Автор: maybe_elf

Источник

Rambler's Top100