Новый фреймворк Memento позволяет агентам на базе LLM учиться на опыте — без дообучения модели
Учёные из Юниверсити Колледж Лондон (UCL) и лаборатории Huawei Noah’s Ark Lab разработали новый подход к обучению, который позволяет агентам на базе больших языковых моделей (LLM) динамически адаптироваться к среде без дообучения самой модели. Метод основан на системе структурированной памяти, которая автоматически обновляется по мере накопления агентом опыта, что даёт возможность непрерывно повышать качество его работы.Дисклеймер: это вольная адаптция статьи
История развития языковых моделей: ч. 1, от цепей Маркова до ELIZA
История развития языковых моделей: ч. 1, от цепей Маркова до ELIZAДоброго времени суток, «Хабр»!
Гиббсовское сэмплирование на Python
Привет, Хабр.Сегодня разбираем реализацию Gibbs Sampling на Python. Это один из методов Монте‑Карло по цепям Маркова (MCMC), который решает такую задачу:«У нас есть сложное многомерное распределение, но мы не можем из него напрямую сэмплировать. Однако, если у нас есть условные распределения, то мы можем брать новые точки, обновляя поочередно каждую координату.»Представим, что есть совместное распределение

