BrainTools - Методики для развития мозга - страница 503

Обзор Cherry Studio: визуальная разработка AI-решений с BotHub

продолжить чтение

Artificial Analysis обновили свой Intelligence Index

В новых тестах неожиданно выстрелил Gemini 3 Pro Preview. По половине бенчмарков у модели не просто небольшой прирост, а заметный скачок вперёд.Фактические знания и галлюцинацииGemini 3 Pro Preview занимает 1-е место в 5 из 10 тестов Artificial Analysis Intelligence Index:GPQA Diamond, MMLU‑Pro, HLE, LiveCodeBench и SciCode.Самый показательный результат — 37% в Humanity's Last Exam (сложный экзамен «на последнюю попытку человечества»). Это на 10+ п.п. выше предыдущего лучшего результата — для такого класса задач это большой отрыв, а не статистический шум.»Отдельно модель лидирует в AA‑Omniscience, новом комплексном бенчмарке знаний и галлюцинаций:

продолжить чтение

Google DeepMind выпустила полный гайд по Gemini 3

Google DeepMind представила подробный гайд

продолжить чтение

Второй мозг для автора — собираем экосистему из нейросетей и заметок

Привет, Хабр! Эта статья — результат совместного труда двух авторов. В своей карьере мы перепробовали много различных методик. Мы искали способы «вытаскивать» мысли из головы в цифровое пространство, где их удобнее структурировать, чтобы затем превратить в связный живой текст. Делимся своим опытом работы с инструментами написания и редактирования текстов, среди которых есть как проверенные временем, так и появившиеся сравнительно недавно.Итак, коротко о нас:

продолжить чтение

  • Оставлено в 

В «Яндекс Картах» появился ИИ-помощник на базе технологий Alice AI для решения нестандартных городских задач

продолжить чтение

Ai2 выпускает Deep Research Tulu — открытую модель для глубокого исследования информации

продолжить чтение

Генерация BPMN с помощью LLM в диалоговом режиме: эксперименты и выводы

От переводчика: Авторы свежей научной работы попробовали заставить обычные открытые LLM (от 1B до 70B) генерировать валидный BPMN-XML прямо в чате по текстовому описанию процесса.Если вкратце, то без дообучения — полный провал. 80% токенов тратится на XML-мусор, модели сыплются на синтаксисе, забывают ветки и галлюцинируют теги. Работает только на больших моделях и то не очень хорошо.Но вроде просматривается рабочий вариант для генерации BPMN — берем 7–13B модель, дообучаем через LoRA/QLoRA на нормальном датасете, переходим на компактный JSON вместо XML и добавляем Preference Tuning + CoT. Тогда может быть взлетит.

продолжить чтение

NVIDIA представила открытые модели Apollo для научных расчетов и симуляций

продолжить чтение

Пока вы боитесь потерять работу из-за ИИ, бизнес боится потерять вас

В последние пару лет всё чаще можно услышать фразу: «Мы уже не знаем, где искать квалифицированных сотрудников: в России дефицит кадров».

продолжить чтение

Cloudflare интегрирует платформу Replicate в свою инфраструктуру AI Cloud

продолжить чтение

Rambler's Top100