Общество мыслей: совещание внутри LLM
Общество мыслей: совещание внутри LLMВы наверняка слышали про Chain-of-Thought. "Пусть модель думает вслух, и она станет умнее" — звучит логично, правда? Добавляем "Let's think step by step" в промпт, модель генерирует больше токенов, качество растёт. Почему это работает — долгое время было неочевидно.Но вот что странно: DeepSeek-R1, QwQ-32B и модели серии OpenAI o (o1, o3) показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Они решают задачи, на которых обычные модели с Chain-of-Thought спотыкаются. И дело не в размере модели и не в количестве токенов.Исследователи из Google Research и University of Chicago в статье
Пузырь ИИ слабеет, а другой уже на 80% сформировался
Хайп не умер - он просто стал дорогим, скучным и незаметно заменился гораздо более опасным беспорядкомСтановится всё сложнее игнорировать смену настроений.
Anthropic опубликовала обновленную конституцию Claude и показала, как именно модель учат принимать решения
Anthropic представила новую версию так называемой конституции

