aime.

Как мы собрали русскоязычный датасет олимпиадной математики (и зачем это нужно AI)

Математические исследования всё чаще используют методы ИИ для анализа сложных задач, генерации решений и предоставления персонализированного обучения. Однако эффективность таких моделей напрямую зависит от качества и структуры данных, на которых они обучаются. Несмотря на обилие математических текстов в интернете, существует заметный дефицит крупных, размеченных и многоязычных датасетов, специально ориентированных на олимпиадную математику. В частности, для русскоязычных моделей остро не хватает материалов, сочетающих в себе авторитетность источника, сложность содержания и лингвистическое разнообразие.

продолжить чтение

Google Gemini 3 Pro впервые обогнал GPT-5: результаты бенчмарков показали нового лидера ИИ-гонки

Ноябрь 2025 года стал поворотной точкой в истории ИИ. Без громких анонсов и традиционного хайпа Google представил Gemini 3 Pro.

продолжить чтение

ChatGPT o3 Pro: новый флагман OpenAI или маркетинговый ход? Разбираемся

OpenAI снова удивляет: новая модель ChatGPT o3 Pro обещает революцию в аналитике, науке и разработке. Но так ли она хороша? Читайте разбор архитектуры, тестов и подводных камней «самого вдумчивого ИИ» 2025 года.

продолжить чтение

Исследователи обнаружили, что больше не нужна тонна данных, чтобы обучить LLM выполнению логических задач

Согласно новому исследованию, проведенному исследователями Шанхайского университета Цзяо Тун, большие языковые модели (LLM) могут выполнять сложные задачи рассуждения, не полагаясь на большие наборы данных. Результаты исследования демонстрируют, что при использовании ограниченного количества тщательно отобранных образцов можно подготовить специалиста в области юриспруденции к выполнению задач, которые, как предполагалось, требуют огромного количества учебных материалов.

продолжить чтение