дезинформация.

Нейросети поверили в историю про выдуманную болезнь

Исследовательница из Гётеборгского университета в Швеции Альмира Тунстрём придумала кожное заболевание под названием биксонимания, а затем загрузила два фальшивых исследования о нём на сервер препринтов в начале 2024 года. Она затеяла этот необычный эксперимент, чтобы проверить, смогут ли большие языковые модели отличить дезинформацию, либо же выдадут её за авторитетные медицинские рекомендации.

продолжить чтение

Вот так ИИ распространяет фэйковые статьи на Хабре

Вы даже не замечаете, как смысл статей меняется на противоположный. Внимание! Это не учебная тревога, поставьте статью в закладки! Эта тяжелая - иногда очень - учесть может постигнуть каждого.

продолжить чтение

В Китае инфлюенсеры должны подтверждать свои знания реальным дипломом

C 25 октября 2025 года в Китае начал действовать закон, который требует от блогеров, создающих контент о медицине, юриспруденции, образовании и финансах, иметь реальный диплом для подтверждения квалификации в этой дисциплине. Государственная канцелярия интернет-информации КНР (CAC) указывает, что цель этой инициативы заключается в борьбе с дезинформацией и защите общества от ложных и вредоносных рекомендаций. Однако мера уже вызвала опасения

продолжить чтение

Модератор Reddit предупредил об опасности ИИ-ответов на сабреддите по здоровью

Модератор сабреддита «Семейная медицина» заметил, что система «Ответы Reddit» (Reddit Answers), работающая на основе искусственного интеллекта, отвечает авторам не по теме их запросов и «распространяет крайне опасную дезинформацию». При этом модераторы «не могут отключить эту функцию».

продолжить чтение

Исследование: за год чат‑боты на базе ИИ стали распространять ложную информацию вдвое интенсивнее

Чат‑боты за последний год стали распространять ложную информацию вдвое интенсивнее,

продолжить чтение

«Тупой ИИ» с нами надолго. Почему в новых моделях больше галлюцинаций

В последние несколько месяцев ведущие модели обновились с функцией «рассуждений» (reasoning). Предполагалось, что качество ответов улучшится. Но последующие тесты показали, что уровень галлюцинаций сильно вырос. И это не какая-то случайная недоработка разработчиков, а фундаментальное свойство. Сейчас становится очевидным, что от галлюцинаций мы не избавимся никогда.

продолжить чтение

Google решила не соблюдать закон ЕС о проверке фактов

Google не будет добавлять проверку фактов в результаты поисковой выдачи и видеоролики на YouTube, а также использовать подобные методы при ранжировании или удалении контента, несмотря на требования нового закона Европейского союза. Об этом корпорация сообщила в письме для европейских чиновников, полученном Axios.

продолжить чтение