Эффект «галлюцинаций»: когда ИИ врет уверенным голосом
Статья подготовлена в рамках курса «Машинное обучение для начинающих».Недавно в «беседе» с умной колонкой я задал ей вопрос относительно исполнителя одной музыкальной композиции. Колонка уверенно ответила, однако, так как у меня были сомнения в правильности, я переспросил ее и на этот раз она назвала другое имя. Также, при работе с различными языковыми моделями мне приходилось неоднократно сталкиваться с ситуациями, когда, к примеру, нейросеть неверно указывала нормативные документы, статьи законов и так далее
Клинический профиль Gemini: синдром дефицита внимания, пикацизм и психопатия по Ганнушкину
Gemini (Google)
Успешный экспорт бага: взгляд клинициста на галлюцинации ИИ
Народ выдает массовую острую реакцию на галлюцинации нейросетей. Выкатывают разработчикам претензии: «нейронка врет и игнорирует контекст!». Инженеры сначала пытались вяло отбиваться классическим: GIGO и RTFM. Но недовольство потребителя растет. Пошли биться над проблемой. Начали вкручивать RAG. Инженеры полагают, что галлюцинации — это математический баг. Они исходят из того, что в идеале машина должна работать как мышление у психически сохранного человека, а не как у шизофреника.
Ваша LLM галлюцинирует? Наденьте на неё экзоскелет — и заставьте работать по правилам
Тесты на Qwen и DeepSeek показали: одна системная инструкция превращает модель из «уверенного вруна» в инструмент, которому можно доверять.Всё началось с болиДелал проект на Unreal Engine 5 с помощью нейросети. Спрашиваю — отвечает уверенно, с примерами кода. Два часа искал функцию, которую она мне подсунула. Нашёл — в UE4. В пятёрке её убрали. После чего я начал осваивать промты.После первых итераций инструкции пришёл комментарий к первой статье:«…Я не программист. У меня стройка и бизнес-планирование. Из-за галлюцинации дипсика — потерял 2е суток времени...» — whitecat26
Как спасти ИИ в эпоху, когда ИИ убивает сам себя?
«Все крупные корпорации и социальные сети уже давно хотят помечать контент, созданный искусственным интеллектом, отдельным специальным признаком. Безусловно, можно говорить о том, что это делается ради заботы о пользователях — чтобы люди не сидели бесконечно и не потребляли абсолютно одинаковый контент. Но у этой инициативы есть и совершенно эгоистичные цели: платформам жизненно необходимо физически отделить контент, созданный живыми людьми, от материалов, сгенерированных нейросетями».Давайте детальнее копнем в проблему
Редакторы «Википедии» зафиксировали проблемы из-за ИИ в ряде переводов
Редакторы «Википедии» ввели новые правила и ограничили доступ к информации для ряда авторов. На этот шаг пошли после того, как авторы применили искусственный интеллект для перевода статей на другие языки, что добавило в материалы «галлюцинации» или ошибки.
История о том, как я устал от галлюцинаций ИИ и собрал инструкцию для нейронки
Личный опыт, 14 версий и эволюция от «просто не ври» до адаптивного Deep Compute Engine Вступление: Всё началось с болиДелал свой проект с помощью нейросети. Всё шло хорошо, пока не начались они. Галлюцинации.Сначала это было смешно: «Сэр, функция asyncio.gather() принимает 5 аргументов» (принимает *coros). Потом перестало: код не работает, время уходит, итерация за итерацией я объясняю агенту, что он только что выдумал параметр.В какой-то момент я понял: проблема не в модели. Проблема в том, как я с ней разговариваю.Так родилась INSTRUCTION_GENTLEMAN

