CoT.
LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.Дисклеймер: это вольная адаптция
LCPO меняет подход к обучению AI, снижая затраты на вычисления
Процесс рассуждения через цепочку (Chain-of-Thought, CoT) — это метод, при котором модели разбивают задачи на управляемые «мысли», прежде чем искать ответ. Этот подход стал важной частью современных больших языковых моделей (LLMs). Однако такие модели могут создавать высокие затраты на вычисления из-за большого количества генерируемых CoT-токенов. В новой работе исследователи из Университета Карнеги-Меллона предложили технику обучения языковых моделей, которая дает разработчикам больше контроля над длиной CoT.
Как сократить затраты на системы ИИ: новый метод исследователей Zoom Communications
Команда исследователей из Zoom Communications разработала революционную технологию, которая может значительно сократить затраты и вычислительные ресурсы, необходимые для систем ИИ при решении сложных задач, потенциально изменив подход предприятий к масштабному внедрению ИИ.

