«Закон уплотнения» LLM: плотность способностей удваивается каждые 3,5 месяца
TL;DRПредлагается «закон уплотнения» для больших языковых моделей: максимальная плотность способностей удваивается примерно каждые 3,5 месяца. То есть всё больше качества удаётся выжать из каждого параметра модели.Вводится метрика плотности способностей: считается, сколько параметров потребовалось бы референсной модели, чтобы показать такое же качество, и это число сравнивается с реальным количеством параметров. Так видно, какие модели обучены «экономно», а какие — расточительно.
Prime Intellect представила INTELLECT-3: 106 миллиардов параметров и суперспособности в reasoning
Prime Intellect выпустили INTELLECT-3
DeepSeek-OCR + LLama4 + RAG = Революция в мире агентного OCR
В выходные я просматривал Твиттер, чтобы узнать, что происходит в сфере ИИ. И снова DeepSeek привлек внимание всего мира.
Microsoft встроил ИИ‑инструменты для шопинга прямо в Edge
Компания Microsoft внедрила в браузер Microsoft Edge

