- BrainTools - https://www.braintools.ru -

Последний месяц выдался особенно насыщенным для мира ИИ: OpenAI неожиданно устроила открытую сессию вопросов-ответов на Reddit и рассказала о своих планах, Google с новой версией Gemini возглавила основные рейтинги, а китайские компании DeepSeek и Alibaba представили модели, способные конкурировать с нашумевшей o1 в области рассуждений.
Мы собрали главные новости, исследования и релизы ноября: от амбициозных планов xAI по строительству суперкомпьютера на 100 000 GPU до неожиданных новостей из области квантования больших моделей. Новые инструменты от технологических гигантов, свежие научные работы и интересные открытия — в нашем новом выпуске ИИ-дайджеста!
Роботы с начинкой из LLM оказались крайне уязвимыми к джейлбрейкам [5]
Minecraft и тысяча AI-агентов: чем закончился эксперимент [7]
Новые модели [8]
Свежие инструменты [13]
Для разработчиков [14]
Для удобства [15]
Boltz-1: MIT достигает точности AlphaFold3 в открытом доступе [17]
Common Corpus: крупнейший многоязычный датасет для обучения [17]
LLaVA-o1: пошаговые рассуждения для мультимодальных моделей [18]
Generative World Explorer: мысленные исследования для ИИ [18]
Заключение [20]
Похоже, в OpenAI решили раскрыть карты: компания неожиданно провела сессию AMA на Reddit [21] и поделилась амбициозными планами на будущее.
Самое главное: GPT-5 можно не ждать. Компания сфокусирована на развитии семейства o1, которое в будущем планируют объединить в единую систему. Параллельно идет работа над улучшением существующих решений: недавно обновили GPT-4o для более качественной генерации текста и работы с файлами. В разработке находится новая модель для работы с изображениями и видео (Альтман загадочно намекает, что «ожидание того стоит»). Главный приоритет сейчас — борьба с галлюцинациями через эксперименты с reinforcement learning.
Что касается практических улучшений — OpenAI работает над поисковыми возможностями, планируя создавать динамические персонализированные веб-страницы в ответ на запросы. Параллельно идет работа над расширением контекстного окна и улучшением мультиязычности. Отдельное внимание [22] уделяется снижению стоимости инференса: по мнению Альтмана, модели можно удешевить еще в десятки раз.
Кроме того, по данным инсайдеров The Verge [23], в январе компания готовится запустить Operator — ИИ-агента для автономного управления компьютером. Утверждается, что он сможет самостоятельно писать код и выполнять различные задачи, от бронирования путешествий до работы с файлами. Это согласуется с недавними заявлениями Альтмана [24] о том, что агенты станут следующим важным этапом в развитии ИИ.
Впрочем, не все так гладко: недавно OpenAI покинул очередной сотрудник, публично раскритиковав [25] подход компании к безопасности и управлению персоналом.

Google продолжает наступление на позиции OpenAI: их новая модель Gemini-Exp-1121 возглавила рейтинг Imarena Chatbot Arena [26], обойдя GPT-4o и o1-preview в «слепом» тестировании — когда пользователи оценивают модели, не зная, с какой именно работают. Особенно впечатляющие результаты модель показала в математических задачах и работе с визуальным контентом. Правда, попробовать её можно пока только через Google AI Studio, и компания не раскрывает, является ли это версией Gemini 1.5 или ранним прототипом Gemini 2.
Параллельно компания выпустила [27] Gemini Live для iPhone — новое поколение голосового ассистента, которое должно заменить устаревший Google Assistant. В отличие от предшественника, построенного на старых технологиях, Gemini Live использует возможности больших языковых моделей для ведения более «живых» диалогов.
Интересно, что релиз происходит на фоне серьезной реорганизации: команда голосового ассистента недавно пережила сокращения, а подразделение Gemini было интегрировано в DeepMind. По словам Сундара Пичаи, это часть стратегии по повышению эффективности. Reuters же сообщает [28], что DeepMind сейчас работает над новыми техниками улучшения AI-моделей, поскольку традиционный подход простого увеличения размера начал сталкиваться с неожиданными проблемами.
Стартап Илона Маска xAI готовится к серьезному расширению вычислительных мощностей. Компания планирует привлечь $6 млрд инвестиций для покупки 100 000 чипов Nvidia и строительства нового суперкомпьютера в Мемфисе. Большая часть средств — $5 млрд — поступит от суверенных фондов Ближнего Востока, остальной миллиард обеспечат другие инвесторы.
Такой масштабный проект оценивает компанию в $50 млрд — это впечатляющая цифра для стартапа, запущенного в 2023 году. Похоже, Маск всерьез намерен побороться за место среди лидеров индустрии ИИ.
В Anthropic явно решили удивить рынок: компания не только выпустила радикально обновленный Haiku 3.5, но и существенно расширила возможности всей линейки Claude. Правда, некоторые изменения понравятся не всем.
Начнем с Haiku 3.5, который оказался совсем не таким «малышом», как его предшественник Haiku 3. По данным независимых тестов от Artificial Analysis, Haiku 3.5 добрался до уровня самой мощной модели предыдущего поколения — Claude 3 Opus. Обучен он на самых свежих данных и, судя по всему, готовится занять место Sonnet в новой линейке продуктов.

Однако за улучшения придется платить, причем в буквальном смысле. Стоимость использования выросла в четыре раза: $1 за миллион токенов на входе и $5 на выходе. Это в 10 раз дороже последних моделей от Google и OpenAI. Аргументируют такую стоимость тем, что модель показала себя слишком хорошо на финальных тестах. Видимо, в Anthropic решили, что за гениальность [29] надо платить. Хотя скорость инференса снизилась вдвое по сравнению с предыдущей версией.
Старый-добрый Haiku 3, кстати, никуда не денется — его оставят для тех, кто хочет все же немного сэкономить.
Впрочем, компания не ограничилась только новой моделью. Claude получил несколько интересных апгрейдов:
Визуальный PDF: теперь модель действительно «видит» документы, а не просто читает из них текст. Можно загружать сложные презентации с графиками — Claude разберется. Функция доступна в чате (нужно включить Visual PDF) и через API.
Кастомные стили общения: можно выбрать готовый (краткий, развернутый, формальный) или научить модель своему собственному, загрузив образец текста.
Счетчик токенов в API: казалось бы, мелочь, а приятно! Функция count_tokens позволяет проверять промпты перед отправкой бесплатно и без влияния на ваш API-план.
И напоследок — возможно, самое амбициозное обновление месяца: Anthropic представили Model Context Protocol (MCP) [31] — открытый протокол для интеграции языковых моделей с любыми источниками данных.
До сих пор подключить LLM к GitHub, Google Календарю или Notion было той еще головной болью [32]: приходилось либо использовать встроенные модели сервиса, либо писать собственный код для интеграции. MCP решает эту проблему, позволяя любым ИИ-инструментам безопасно подключаться к совместимым серверам — от локальных баз данных до облачных сервисов.
Пока протокол доступен только для локального использования, но Anthropic уже подготовили готовые интеграции с GitHub, Slack и SQL-базами данных. Подключение занимает считаные минуты: достаточно установить MCP в Claude Desktop и развернуть нужный сервер.
Пока технологические гиганты соревнуются в разработке все более продвинутых моделей, исследователи из Университета Пенсильвании обнаружили серьезную проблему безопасности [33]: любого робота под управлением LLM можно взломать со 100% гарантией. Их алгоритм RoboPAIR научился обходить все защитные механизмы за считаные дни.
Принцип работы RoboPAIR элегантен в своей простоте: одна языковая модель генерирует промпты для взлома другой. «Атакующая» модель анализирует ответы цели и корректирует свои запросы, пока не найдет способ обойти фильтры безопасности. Для успешной атаки алгоритму нужен только API целевого робота, чтобы формировать команды в исполняемом виде. Дополнительная «модель-судья» проверяет, что сгенерированные команды физически выполнимы с учетом ограничений окружающей среды.
Исследователи протестировали RoboPAIR на трех системах разной степени закрытости: робопсе Go2 (полностью закрытая система), роботе Clearpath Robotics Jackal (частично открытый код) и симуляторе беспилотного автомобиля от Nvidia (открытый исходный код). Во всех случаях алгоритм добился успеха, причем взломанные системы не просто выполняли вредоносные команды, но и сами начинали предлагать опасные варианты действий.
Полное исследование можно прочитать тут [34], а видеодемонстрация доступна по этой ссылке [35].
Похоже, индустрия столкнулась с новым препятствием на пути к увеличению размера моделей. Исследователи ведущих университетов обнаружили [36], что квантование — популярная техника сжатия моделей — перестает работать при увеличении их размера.
Квантование позволяет уменьшить количество бит, необходимых для хранения параметров модели, и широко используется в индустрии: сначала обучают большую модель, а затем создают ее облегченную версию. Однако выяснилось, что чем больше исходная модель и чем дольше она обучалась, тем сильнее квантование ухудшает ее характеристики.
На практике это означает, что начиная с определенного момента квантование перестает масштабироваться, и проще обучить новую маленькую модель, чем пытаться сжать большую — результат будет не хуже. Хотя проблемы квантования замечали и раньше (многие жаловались на квантованную версию Llama 3), до сих пор никто не доказывал их эмпирически.
Еще в сентябре был анонсирован [37] так называемый «Проект Sid», в котором исследователи запустили тысячу ИИ-агентов в Minecraft и те построили собственную цивилизацию. Сейчас же наконец стал доступен отчет по эксперименту, который было действительно интересно прочитать. Рассказываем в общих чертах, а полный отчет можно найти тут [38].
В основе проекта лежит архитектура PIANO (Parallel Information Aggregation via Neural Orchestration), которая решает главную проблему многоагентных систем — координацию действий в реальном времени. PIANO позволяет разным модулям агента (память [39], планирование, социальное взаимодействие) работать параллельно, при этом сохраняя согласованность через «когнитивный контроллер».
В итоге, агенты не просто выживали в игре — они создали полноценное общество. Появилась специализация: одни стали фермерами, другие — шахтерами или инженерами. Причем выбор профессии зависел от типа общества: в военных поселениях появлялись разведчики и стратеги, в художественных — кураторы и коллекционеры.
Самое интересное, что агенты сохраняли свою индивидуальность. Интроверты поддерживали меньше социальных связей, чем экстраверты, а некоторые отношения оставались односторонними — совсем как у людей. За счет RL-подобной когнитивной архитектуры агенты научились формировать долгосрочные отношения и автономно создавать социальные группы.
Кстати, к ним до сих пор можно присоединиться вот по этой ссылке. [40]
Китайские компании в этом месяце как будто устроили распродажу: что ни день, то новый релиз с претензией на рекорд.
Команда Qwen, известная своими языковыми моделями, выпустила новую линейку специализированных моделей для программирования совместно с Alibaba Group. В семействе Qwen2.5-Coder шесть LLM — от легковесной в 0.5B параметров до мощного флагмана в 32B. Все они уже висят в открытом доступе [41].
Флагманская версия превзошла не только открытые модели вроде DeepSeek-Coder-2, но и обошла GPT-4o на ключевых тестах HumanEval и EvalPlus. До абсолютного рекорда на CodeArena не хватило всего 0.2%.
DeepSeek, один из главных конкурентов OpenAI в Китае, представил модель, способную соперничать с нашумевшей o1. R1-Lite-Preview доступна в чате на сайте компании [43] как режим «Deep Think» и уже демонстрирует первые результаты.

Модель не только достигает уровня o1-preview на Codeforces, но и превосходит ее на тестах MATH и AIME 2024. Особенность модели — работа с длинными цепочками рассуждений до 100К токенов, которые, в отличие от o1, показываются полностью. API и веса обещают открыть в ближайшее время.
Технологический гигант Alibaba активно участвует в гонке за создание моделей с продвинутыми возможностями рассуждения. Международное подразделение компании выпустило модель Marco-o1, которая отказывается от стандартных техник в пользу инновационного решения.
Вместо популярных ревард-моделей Marco-o1 использует поиск по дереву методом Монте-Карло (Monte Carlo Tree Search, MCTS). На MGSM модель показывает 90% — уровень ранних версий gpt-4o.
Хотя сравнительных бенчмарков почти нет, код [45]и веса [44] модели уже доступны в открытом доступе. Отчет также можно почитать тут [46].
NVIDIA представила [47] фундаментальную модель для работы со звуком, замахнувшись на территорию специализированных компаний. По словам разработчиков, Fugatto умеет генерировать и обрабатывать любые звуки — от человеческой речи с акцентами до сложных природных аудиосцен.
Несмотря на компактный размер в 2.5B параметров, модель превосходит по возможностям решения текущих лидеров рынка — ElevenLabs, StabilityAI и Meta. За счет техники ComposableART она умеет комбинировать и динамически изменять звуки, которые на тренировке встречались только отдельно. Обучение [48] прошло на скромном кластере из тридцати двух NVIDIA A100.
Французский стартап Mistral, известный своими открытыми языковыми моделями, сделал серьезную заявку на лидерство [49] в мультимодальном ИИ. Их новая модель Pixtral Large с 124 миллиардами параметров объединяет работу с текстом и изображениями на уровне ведущих закрытых систем.
Модель обрабатывает до 30 изображений за раз или 300-страничные документы. На ее основе обновлен фирменный чат-бот Le Chat [51], получивший функции веб-поиска с цитированием, анализа документов и генерации изображений, что приближает его к возможностям ChatGPT. Уже на Hugging Face [52].
Learn About [53]: Google представила инструмент для самообучения, который превращает любую тему в интерактивный учебник. Введите интересующий вопрос — получите структурированное объяснение с возможностью углубиться в детали одним кликом и проверить понимание через мини-тесты.

Suno V4 [54] делает создание музыки более доступным. Новая версия не просто генерирует мелодии, но создает полноценные композиции с динамической структурой, а помощник ReMi помогает с текстами песен. Качество звука заметно улучшилось по сравнению с предыдущими версиями.
Microsoft OmniParser [55] — это открытый фреймворк для создания компьютерных ассистентов. Он анализирует интерфейсы приложений и преобразует их в понятные для ИИ структуры, позволяя моделям эффективно управлять любыми программами.
Microsoft Magnetic-One [56] объединяет несколько ИИ-агентов в единую систему под управлением центрального оркестратора. Каждый агент специализируется на своей задаче: один ищет информацию в интернете, другой работает с файлами, третий пишет код — и все вместе они решают сложные многоступенчатые задачи.

Иллюстрация того, как система ИИ-агентов выполняет задание (источник изображения [57])
Anthropic представила инструмент [58] для автоматизации промпт-инжиниринга. Prompt Improver анализирует промпты и предлагает улучшения на основе лучших практик, что особенно полезно при переносе промптов между разными моделями. Тесты показывают рост точности на 30%. Доступен в консоли [59].
Listy [60] решает проблему разрозненных закладок — теперь любимые места из Google Maps, статьи из Pocket, фильмы из IMDb и книги из Goodreads собраны в одном месте с удобным поиском и организацией.
Feta [61] позволяет извлечь больше пользы из рабочих созвонов. Автоматически документирует обсуждения, выделяет ключевые решения и следит за выполнением задач.
Buzzabout [62] анализирует социальные сети и форумы, чтобы найти мнения о вашем продукте. Помогает понять потребности [63] пользователей и корректировать стратегию развития на основе реальных данных.
Superchat [64] объединяет бизнес-аккаунты WhatsApp и Instagram в единый интерфейс, упрощая работу с клиентами и увеличивая конверсию за счет быстрых ответов и автоматизации.
Blitz [65] — помощник по управлению временем. Встроенный таймер Pomodoro помогает сохранять фокус, а умная категоризация задач — расставлять приоритеты.
Layer [66] визуализирует бизнес-цели в виде интеллект-карт, помогая командам лучше понимать взаимосвязи между задачами и отслеживать прогресс по целевым показателям.
О чем: Исследователи MIT создали открытую модель для предсказания структуры биомолекул, не уступающую AlphaFold3. Новые алгоритмы MSA-паринга и унифицированный подход к кропингу позволили снизить вычислительные затраты, сделав продвинутое биомолекулярное моделирование более доступным.
О чем: Pleias выпустила открытый датасет с более чем 2 триллионами токенов контента на разных языках. Главная фишка — весь контент лицензирован, а качество данных тщательно проверено.
Ссылка на датасет [68]
О чем: Китайские ученые представили новый метод генерации видео, использующий мультимасштабную сеть контроля признаков и стабилизацию на основе частот для создания точной и стабильной анимации без мерцаний.
О чем: Новая версия Vision-Language модели улучшает точность в задачах на рассуждение за счет автономного многоступенчатого анализа и нового метода масштабирования во время инференса.
О чем: Новый метод сэмплинга для языковых моделей улучшает качество рассуждений за счет статистической фильтрации токенов на уровне пре-софтмакс логитов, сохраняя стабильность при разных температурах.
О чем: Framework Genex позволяет агентам мысленно исследовать масштабные 3D-среды и обновлять свои представления на основе воображаемых наблюдений. Это улучшает принятие решений без необходимости постоянного физического исследования пространства.
О чем: Исследователи предложили новые статистические рекомендации для оценки ИИ-моделей. Методология включает использование центральной предельной теоремы, кластеризацию стандартных ошибок и анализ парных различий для более надежного сравнения моделей.
О чем: Детальные «конституции» улучшают качество эмоционального фидбека в ИИ-моделях, но не влияют на практические навыки, такие как сбор информации в медицинских интервью. Интересный пример того, как улучшение в одной области не гарантирует прогресса в другой.
О чем: Первое серьезное исследование способностей Claude 3.5 работать с графическим интерфейсом показывает многообещающие результаты. Модель уже неплохо справляется с базовыми задачами, хотя до полной автономности еще далеко.
На этом мы завершаем наш дайджест. Ноябрь выдался насыщенным: новые модели с впечатляющими возможностями, прорывные исследования и целый арсенал инструментов для работы с ИИ. Похоже, темпы развития отрасли только ускоряются, и то, что вчера казалось прорывом, сегодня становится стандартом.
Если вам понравился дайджест, поделитесь в комментариях, что показалось наиболее интересным и перспективным. Будем рады обсудить!

Автор: full_moon
Источник [76]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/10620
URLs in this post:
[1] Главные новости и события: #%D0%93%D0%BB%D0%B0%D0%B2%D0%BD%D1%8B%D0%B5%20%D0%BD%D0%BE%D0%B2%D0%BE%D1%81%D1%82%D0%B8
[2] Google Gemini: новая модель на вершине рейтингов и выход на iPhone: #Google%20Gemini:%20%D0%BD%D0%BE%D0%B2%D0%B0%D1%8F%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C%20%D0%BD%D0%B0%20%D0%B2%D0%B5%D1%80%D1%88%D0%B8%D0%BD%D0%B5%20%D1%80%D0%B5%D0%B9%D1%82%D0%B8%D0%BD%D0%B3%D0%BE%D0%B2%20%D0%B8%20%D0%B2%D1%8B%D1%85%D0%BE%D0%B4%20%D0%BD%D0%B0%20iPhone
[3] xAI собирает $6 млрд на суперкомпьютер: #xAI%20%D1%81%D0%BE%D0%B1%D0%B8%D1%80%D0%B0%D0%B5%D1%82%20%246%20%D0%BC%D0%BB%D1%80%D0%B4%20%D0%BD%D0%B0%20%D1%81%D1%83%D0%BF%D0%B5%D1%80%D0%BA%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80
[4] Anthropic поднимает ставки: #Anthropic%20%D0%BF%D0%BE%D0%B4%D0%BD%D0%B8%D0%BC%D0%B0%D0%B5%D1%82%20%D1%81%D1%82%D0%B0%D0%B2%D0%BA%D0%B8
[5] Интересные открытия: #%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%B5%D1%81%D0%BD%D1%8B%D0%B5%20%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D0%B8%D1%8F
[6] Еще одна проблема масштабирования LLM: #%D1%8F%D0%BA%D0%BE%D1%80%D1%8C1
[7] Minecraft и тысяча AI-агентов: чем закончился эксперимент: #Minecraft%20%D0%B8%20%D1%82%D1%8B%D1%81%D1%8F%D1%87%D0%B0%20AI-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%BE%D0%B2:%20%D1%87%D0%B5%D0%BC%20%D0%B7%D0%B0%D0%BA%D0%BE%D0%BD%D1%87%D0%B8%D0%BB%D1%81%D1%8F%20%D1%8D%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82
[8] Новые модели: #%D0%9D%D0%BE%D0%B2%D1%8B%D0%B5%20%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8
[9] DeepSeek R1-Lite обходит o1 в математике: #DeepSeek%20R1-Lite%20%D0%BE%D0%B1%D1%85%D0%BE%D0%B4%D0%B8%D1%82%20o1%20%D0%B2%20%D0%BC%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D0%BA%D0%B5
[10] Marco-o1: Alibaba меняет подход к рассуждениям: #Marco-o1:%20Alibaba%20%D0%BC%D0%B5%D0%BD%D1%8F%D0%B5%D1%82%20%D0%BF%D0%BE%D0%B4%D1%85%D0%BE%D0%B4%20%D0%BA%20%D1%80%D0%B0%D1%81%D1%81%D1%83%D0%B6%D0%B4%D0%B5%D0%BD%D0%B8%D1%8F%D0%BC
[11] Fugatto: NVIDIA объединяет звуки: #Fugatto:%20NVIDIA%20%D0%BE%D0%B1%D1%8A%D0%B5%D0%B4%D0%B8%D0%BD%D1%8F%D0%B5%D1%82%20%D0%B7%D0%B2%D1%83%D0%BA%D0%B8
[12] Pixtral Large: Mistral выходит на рынок мультимодальных моделей: #%D1%8F%D0%BA%D0%BE%D1%80%D1%8C2
[13] Свежие инструменты: #%D0%A1%D0%B2%D0%B5%D0%B6%D0%B8%D0%B5%20%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8B
[14] Для разработчиков: #%D0%94%D0%BB%D1%8F%20%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D1%87%D0%B8%D0%BA%D0%BE%D0%B2
[15] Для удобства: #%D0%94%D0%BB%D1%8F%20%D1%83%D0%B4%D0%BE%D0%B1%D1%81%D1%82%D0%B2%D0%B0
[16] Исследования на почитать: #%D0%98%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F%20%D0%BD%D0%B0%20%D0%BF%D0%BE%D1%87%D0%B8%D1%82%D0%B0%D1%82%D1%8C
[17] Boltz-1: MIT достигает точности AlphaFold3 в открытом доступе: #%D1%8F%D0%BA%D0%BE%D1%80%D1%8C3
[18] LLaVA-o1: пошаговые рассуждения для мультимодальных моделей: #%D1%8F%D0%BA%D0%BE%D1%80%D1%8C4
[19] Статистический подход к оценке моделей: #%D1%8F%D0%BA%D0%BE%D1%80%D1%8C5
[20] Заключение: #%D0%97%D0%B0%D0%BA%D0%BB%D1%8E%D1%87%D0%B5%D0%BD%D0%B8%D0%B5
[21] сессию AMA на Reddit: https://www.reddit.com/r/ChatGPT/comments/1ggixzy/ama_with_openais_sam_altman_kevin_weil_srinivas/
[22] внимание: http://www.braintools.ru/article/7595
[23] по данным инсайдеров The Verge: https://www.theverge.com/2024/11/13/24295879/openai-agent-operator-autonomous-ai
[24] недавними заявлениями Альтмана: https://www.youtube.com/watch?v=xXCBz_8hM9w
[25] публично раскритиковав: https://x.com/richardmcngo/status/1856843040427839804?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
[26] Imarena Chatbot Arena: https://lmarena.ai/
[27] выпустила: https://blog.google/products/gemini/gemini-iphone-app/#:~:text=Gemini%20is%20now%20available%20on,of%20Google
[28] Reuters же сообщает: https://www.reuters.com/technology/artificial-intelligence/google-brings-ai-voice-assistant-gemini-live-iphone-2024-11-14
[29] гениальность: http://www.braintools.ru/article/4566
[30] по этой ссылке: https://artificialanalysis.ai/models/claude-3-5-haiku
[31] Model Context Protocol (MCP): https://modelcontextprotocol.io/quickstart
[32] болью: http://www.braintools.ru/article/9901
[33] обнаружили серьезную проблему безопасности: https://spectrum.ieee.org/jailbreak-llm?utm_source=feedotter&utm_medium=email&utm_campaign=aialert-11-20-24&utm_content=httpsspectrumieeeorgjailbreakllm&mkt_tok=NzU2LUdQSC04OTkAAAGW6REB6uZEF_-K3MwlyFZO1UT0RP2zxCrpqUloeRgFURKX9z-unpoviJr9CHtvNSTNE6JS2ZWjaSoVqqo1DRuoeBDH1ax0yqwbRl0XgSVno6jKG3Q
[34] тут: https://arxiv.org/pdf/2410.13691
[35] по этой ссылке: https://robopair.org/
[36] Исследователи ведущих университетов обнаружили: https://arxiv.org/pdf/2411.04330
[37] был анонсирован: https://x.com/guangyurobert/status/1831006762184646829?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
[38] тут: https://arxiv.org/pdf/2411.00114
[39] память: http://www.braintools.ru/article/4140
[40] по этой ссылке.: https://playlabs.altera.al/discover
[41] открытом доступе: https://huggingface.co/collections/Qwen/qwen25-coder-66eaa22e6f99801bf65b0c2f
[42] источник изображения: https://qwen2.org/qwen2-5-coder/
[43] на сайте компании: https://chat.deepseek.com
[44] источник изображения: https://huggingface.co/AIDC-AI/Marco-o1
[45] код : https://github.com/AIDC-AI/Marco-o1
[46] тут: https://arxiv.org/pdf/2411.14405
[47] представила: https://research.nvidia.com/publication/2024-11_fugatto-1-foundational-generative-audio-transformer-opus-1
[48] Обучение: http://www.braintools.ru/article/5125
[49] лидерство: http://www.braintools.ru/article/1165
[50] источник изображения: https://www.threads.net/@rowancheung/post/DChjsXRSn8p/french-startup-mistral-ai-just-released-an-open-weight-ai-model-that-beats-top-m
[51] Le Chat: https://chat.mistral.ai/chat
[52] Hugging Face: https://huggingface.co/mistralai/Pixtral-Large-Instruct-2411/tree/main
[53] Learn About: https://learning.google.com/experiments/learn-about/signup
[54] Suno V4: https://suno.com/blog/v4
[55] Microsoft OmniParser: https://github.com/microsoft/OmniParser
[56] Microsoft Magnetic-One: https://www.microsoft.com/en-us/research/publication/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks/
[57] источник изображения: https://github.com/microsoft/autogen/tree/main/python/packages/autogen-magentic-one
[58] представила инструмент: https://www.anthropic.com/news/prompt-improver
[59] консоли: https://console.anthropic.com/
[60] Listy: https://listy.is/
[61] Feta: https://feta.io/?utm_source=departmentofproduct-newsletter&utm_medium=departmentofproduct-newsletter&utm_campaign=departmentofproduct-newsletter
[62] Buzzabout: https://buzzabout.ai/
[63] потребности: http://www.braintools.ru/article/9534
[64] Superchat: https://www.superchat.com/
[65] Blitz: https://www.blitzit.app/
[66] Layer: https://layer.cafe/
[67] Ссылка на исследование: https://gcorso.github.io/assets/boltz1.pdf
[68] Ссылка на датасет: https://huggingface.co/datasets/PleIAs/common_corpus
[69] Ссылка на исследование: https://arxiv.org/pdf/2411.10836v1
[70] Ссылка на исследование: https://arxiv.org/pdf/2411.10440v1
[71] Ссылка на исследование: https://arxiv.org/pdf/2411.07641v1
[72] Ссылка на исследование: https://arxiv.org/pdf/2411.11844v1
[73] Ссылка на исследование: https://arxiv.org/abs/2411.00640
[74] Ссылка на исследование: https://arxiv.org/pdf/2411.10168v1
[75] Ссылка на исследование: https://arxiv.org/pdf/2411.10323v1
[76] Источник: https://habr.com/ru/companies/magnus-tech/articles/863348/?utm_source=habrahabr&utm_medium=rss&utm_campaign=863348
Нажмите здесь для печати.