anthropic. - страница 13

Project Vend: может ли языковая модель продавать чипсы и вольфрам?

продолжить чтение

Руководство Reddit раздумывает о введении верификации через сканирование глазного яблока для защиты платформы от ботов

Reddit намерен строго контролировать публикацию контента на платформе. Как

продолжить чтение

Люди используют ИИ для общения гораздо реже, чем принято считать

Чрезмерное внимание, которое уделяется тому, как люди взаимодействуют с чат-ботами, обращаясь к ним за эмоциональной поддержкой, порой даже разрывая отношения, создаёт впечатление, что такое поведение — это норма.

продолжить чтение

Пользователи Anthropic теперь могут создавать приложения прямо из чат-бота Claude

Anthropic добавила новую функцию в Claude AI, которая позволяет пользователям создавать приложения на базе ИИ прямо внутри чат-бота. Она доступна на уровнях Free, Pro и Max.

продолжить чтение

Федеральный судья встал на сторону Anthropic в судебном процессе об авторском праве

Федеральный судья Уильям Алсап постановил, что компания Anthropic имеет право обучать свои модели ИИ на основе опубликованных книг без разрешения авторов. Это первый случай, когда суды поверили в то, что доктрина добросовестного использования может освободить компании, работающие с ИИ, от ответственности, когда они используют материалы, защищённые авторским правом, для обучения больших языковых моделей.

продолжить чтение

Google передает протокол Agent2Agent в Linux Foundation для создания открытого стандарта ИИ-агентов

Несколько крупных технологических компаний объединились с Linux Foundation для запуска проекта «Agent2Agent», целью которого является создание и продвижение открытого стандарта коммуникации для ИИ-агентов.

продолжить чтение

Суд США признал законным обучение ИИ Claude на книгах, но за хранение пиратских копий разработчикам грозит штраф

Федеральный суд Сан-Франциско

продолжить чтение

Иллюзия мышления: Почему «думающие» модели на самом деле не думают (и что об этом говорит новое исследование Apple)

продолжить чтение

Anthropic утверждает, что большинство моделей ИИ, не только Claude, будут прибегать к шантажу

Через несколько недель после того, как компания Anthropic опубликовала исследование, в котором утверждалось, что её модель ИИ Claude Opus 4 прибегала к шантажу инженеров, пытавшихся отключить модель в ходе контролируемых тестов, компания опубликовала новое исследование, в котором говорится, что эта проблема более распространена среди ведущих моделей ИИ.

продолжить чтение

OpenAI обнаружила скрытые функции в моделях ИИ, которые приводят к несогласованным ответам

Исследователи из OpenAI заявили, что обнаружили скрытые функции в моделях ИИ, которые соответствуют несогласованным «персонажам», согласно новому исследованию, опубликованному компанией в среду.

продолжить чтение

1...111213141516...20...21
Rambler's Top100