эпистемическая честность.

Ваша LLM галлюцинирует? Наденьте на неё экзоскелет — и заставьте работать по правилам

Тесты на Qwen и DeepSeek показали: одна системная инструкция превращает модель из «уверенного вруна» в инструмент, которому можно доверять.Всё началось с болиДелал проект на Unreal Engine 5 с помощью нейросети. Спрашиваю — отвечает уверенно, с примерами кода. Два часа искал функцию, которую она мне подсунула. Нашёл — в UE4. В пятёрке её убрали. После чего я начал осваивать промты.После первых итераций инструкции пришёл комментарий к первой статье:«…Я не программист. У меня стройка и бизнес-планирование. Из-за галлюцинации дипсика — потерял 2е суток времени...» — whitecat26

продолжить чтение

История о том, как я устал от галлюцинаций ИИ и собрал инструкцию для нейронки

Личный опыт, 14 версий и эволюция от «просто не ври» до адаптивного Deep Compute Engine Вступление: Всё началось с болиДелал свой проект с помощью нейросети. Всё шло хорошо, пока не начались они. Галлюцинации.Сначала это было смешно: «Сэр, функция asyncio.gather() принимает 5 аргументов» (принимает *coros). Потом перестало: код не работает, время уходит, итерация за итерацией я объясняю агенту, что он только что выдумал параметр.В какой-то момент я понял: проблема не в модели. Проблема в том, как я с ней разговариваю.Так родилась INSTRUCTION_GENTLEMAN

продолжить чтение