lrm.

lrm.

Заявления Apple о больших моделях обработки данных стали предметом нового исследования

В ходе повторного анализа статьи Apple «Иллюзия мышления», вызвавшей споры, были подтверждены некоторые ключевые критические замечания, однако главный вывод исследования был поставлен под сомнение.

продолжить чтение

«Тупой ИИ» с нами надолго. Почему в новых моделях больше галлюцинаций

В последние несколько месяцев ведущие модели обновились с функцией «рассуждений» (reasoning). Предполагалось, что качество ответов улучшится. Но последующие тесты показали, что уровень галлюцинаций сильно вырос. И это не какая-то случайная недоработка разработчиков, а фундаментальное свойство. Сейчас становится очевидным, что от галлюцинаций мы не избавимся никогда.

продолжить чтение

Исследование Pfizer о причинах трудностей больших языковых моделей при решении задач

Новый комментарий исследователей из Pfizer ставит под сомнение основные выводы исследования «Иллюзия мышления», соавторами которого являются учёные из Apple. В 

продолжить чтение

Как обучить русскоязычную модель рассуждений — LRM?

Ранее на моем YouTube-канале уже были видео о моделях рассуждений — OpenAI o1/o3, DeepSeek R1. Эти модели обучены с помощью стратегии reinforcement learning находить решения для задач, требующих логических рассуждений. Способность строить цепочки рассуждений, ведущих к решению поставленной задачи, открывают возможность применения таких моделей в математике, программировании и других подобных направлениях.​

продолжить чтение

Алгоритмы 1980-х годов, лежащие в основе современного ИИ, получили премию А. М. Тьюринга

Эндрю Барто и Ричард Саттон получили премию имени А. М. Тьюринга за создание фундаментальных технологий, которые лежат в основе современного ИИ. В том числе, они были отмечены за недавние достижения в области создания больших моделей логического мышления.

продолжить чтение

Сэм Альтман заявил, что объединение LLM и LRM может принести новые научные знания

Обучение все более крупных языковых моделей (LLM) с использованием все большего количества данных заходит в тупик. По словам генерального директора OpenAI Сэма Альтмана, объединение «гораздо больших» предварительно обученных моделей с возможностями рассуждения может стать ключом к преодолению ограничений масштабирования предварительного обучения.Предварительно обученные языковые модели больше не масштабируются так эффективно, как раньше, и эта точка зрения, похоже, получила широкое признание в индустрии ИИ

продолжить чтение

Rambler's Top100