CoT.

CoT.

LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.Дисклеймер: это вольная адаптция 

продолжить чтение

LCPO меняет подход к обучению AI, снижая затраты на вычисления

Процесс рассуждения через цепочку (Chain-of-Thought, CoT) — это метод, при котором модели разбивают задачи на управляемые «мысли», прежде чем искать ответ. Этот подход стал важной частью современных больших языковых моделей (LLMs). Однако такие модели могут создавать высокие затраты на вычисления из-за большого количества генерируемых CoT-токенов. В новой работе исследователи из Университета Карнеги-Меллона предложили технику обучения языковых моделей, которая дает разработчикам больше контроля над длиной CoT.

продолжить чтение

Как сократить затраты на системы ИИ: новый метод исследователей Zoom Communications

Команда исследователей из Zoom Communications разработала революционную технологию, которая может значительно сократить затраты и вычислительные ресурсы, необходимые для систем ИИ при решении сложных задач, потенциально изменив подход предприятий к масштабному внедрению ИИ.

продолжить чтение

Rambler's Top100