Машинное обучение. - страница 16

Модели личности на LLM. Интервью с Турчиным

При общении с моделью личности может возникнуть чувство, что там кто-то есть...После выхода статьи «Сайдлоадинг и оффлоадинг: создание цифровых моделей личности с помощью сверхбольших промптов для LLM»

продолжить чтение

Минцифры: в 2026 году почти 6,5 тыс. студентов начнут обучение по программам «Топ-ИТ» и «Топ-ИИ»

По информации Минцифры, в 2026 году почти 6,5 тыс. студентов начнут обучение по программам «Топ-ИТ» (около 2,6 тыс. студентов) и «Топ-ИИ» (не менее 3,8 тыс. студентов) для подготовки высококвалифицированных ИТ‑специалистов уровня senior, в том числе для научных направлений по искусственному интеллекту.

продолжить чтение

Алгоритмический тупик: почему платформы продвигают мусор, имея инструменты для его фильтрации

Мы живем в 2026 году, когда технологии позволяют оценить глубину и оригинальность текста, но крупные площадки по большей части все еще живут по старинке и судят о качестве по числу лайков и частоте публикаций. Отсюда мы наблюдаем фундаментальный системный сбой, который медленно убивает сложный технический контент.

продолжить чтение

Кубик Рубика как универсальная среда для исследования интеллекта

Кубик Рубика давно перестал быть просто головоломкой. Его используют как метафору сложных систем без очевидных решений – от политики и управления до социальных процессов и человеческого интеллекта. Уже более полувека этот простой на вид объект остается символом задачи, требующей анализа, терпения и системного мышления.Почти сразу после своего появления кубик Рубика привлек внимание пионеров ИИ. Уже в начале 1980-х математики и программисты увидели в нем идеальный формализованный дискретный мир: со строгими правилами и гигантским пространством поиска.

продолжить чтение

Общество мыслей: совещание внутри LLM

Общество мыслей: совещание внутри LLMВы наверняка слышали про Chain-of-Thought. "Пусть модель думает вслух, и она станет умнее" — звучит логично, правда? Добавляем "Let's think step by step" в промпт, модель генерирует больше токенов, качество растёт. Почему это работает — долгое время было неочевидно.Но вот что странно: DeepSeek-R1, QwQ-32B и модели серии OpenAI o (o1, o3) показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Они решают задачи, на которых обычные модели с Chain-of-Thought спотыкаются. И дело не в размере модели и не в количестве токенов.Исследователи из Google Research и University of Chicago в статье

продолжить чтение

Пузырь ИИ слабеет, а другой уже на 80% сформировался

Хайп не умер - он просто стал дорогим, скучным и незаметно заменился гораздо более опасным беспорядкомСтановится всё сложнее игнорировать смену настроений.

продолжить чтение

Humans& привлекла $480 млн без продукта. Рынок снова голосует за имена

продолжить чтение

GenRobot обновила RealOmni OpenData. Один из самых богатых датасетов для Embodied AI стал еще сложнее

продолжить чтение

ИИ-агенты: как мы сделали DeepResearch по корпоративным данным и кодовой базе

продолжить чтение

Anthropic опубликовала обновленную конституцию Claude и показала, как именно модель учат принимать решения

Anthropic представила новую версию так называемой конституции

продолжить чтение

1...10...141516171819...3040...335
Rambler's Top100