bots.
Как реализовать выборочную долговременную память в LLM-боте на Python
LLM-модели хорошо решают задачи диалога, но имеют одно ключевое ограничение: отсутствие встроенной долговременной памяти. Модель опирается только на текущий контекст сообщений, и при его обрезании:забывает фактыпутает деталитеряет согласованность личностиповышается стоимость из-за длины контекстаВ этой статье я хочу разобрать архитектуру, которую использовал для реализации выборочной памяти

