Что нашли внутри Claude, когда заглянули ему в голову
С вами автор канала токены на ветер, и сегодня разберём одно из самых интересных ИИ-исследований последнего времени.Есть такая штука, которая не даёт покоя исследователям ИИ: мы создали системы, которые пишут код, сочиняют стихи, сдают экзамены на врача и юриста — но понятия не имеем, как именно они это делают. Буквально чёрный ящик: данные вошли, ответ вышел, а что между — загадка.
SAE: введение, пояснение и код
Привет, друзья! В прошлой статье мы разобрали идею применения автоэнкодеров к трансоформерам. Там весь наш pipeline проходил на идее сжатия признакового пространства так, чтобы поделить кошек и собак. Но что делать, если у нас не задача классификации, а задача next token prediction? Да и признаки не соответствуют "собакам" и "кошкам", а охватывают все богатство естественного языка...Ответ сообщества сейчас такой — давайте использовать SAE. SAE: Sparse AutoencodersРазреженным автокодировщиком назовем модель

