anthropic. - страница 31

Новая модель ИИ Anthropic позволяет пользователям решать, насколько она обоснованна

Anthropic выпускает новую модель искусственного интеллекта, которая позволяет пользователям выбирать между быстрым ответом на простой вопрос и более длительным ответом, имитирующим человеческое мышление. Это новый подход, который может помочь стартапу в сфере ИИ выделиться на фоне конкурентов.

продолжить чтение

Anthropic протестировала модель Claude 3.7 Sonnet на игре Pokémon Red

Компания Anthropic использовала Pokémon для тестирования своей новейшей модели искусственного интеллекта. В сообщении блога, опубликованном в понедельник, компания Anthropic сообщила, что протестировала свою последнюю модель Claude 3.7 Sonnet

продолжить чтение

Долгожданная модель от Anthropic: вышел Claude 3.7 (да, его и правда так назвали)

Гибридная модель для кодинга и рассужденийСегодня Anthropic анонсировала Claude 3.7 Sonnet — свою самую лучшую модель на данный момент и первую на рынке гибридную модель рассуждений. Claude 3.7 Sonnet может выдавать мгновенные ответы или проводить глубокий анализ (который видим для пользователя). В API можно будет тонко настраивать время размышления модели.

продолжить чтение

Лучший ИИ для разработки получил обновление: вышел Claude 3.7

Модель уже стала доступна на https://claude.ai, даже для бесплатных юзеров.Гибридная модель для кодинга и рассуждений

продолжить чтение

Результаты взлома Claude получены, и хакеры победили

Результаты джейлбрейка Claude от Anthropic уже готовы. После пяти дней напряженных исследований, в ходе которых было обработано более 300 000 сообщений и, по оценкам Anthropic, затрачено 3700 часов коллективных усилий, защита системы искусственного интеллекта наконец-то дала трещину.Исследователь Anthropic Ян Лейке поделился на X

продолжить чтение

Anthropic готовит новую гибридную модель Claude, превосходящую o3-mini-high в кодинге

Как сообщает The Information, Anthropic планирует представить свою следующую крупную модель, которая сочетает традиционные языковые возможности с продвинутыми функциями логического анализа.

продолжить чтение

Генеральный директор Anthropic Дарио Амодей предупреждает о «гонке» за пониманием AI по мере его усиления

Сразу после завершения AI Action Summit в Париже соучредитель и генеральный директор Anthropic Дарио Амодей назвал это мероприятие «упущенной возможностью». Он добавил, что «необходимо уделять больше внимания и действовать быстрее по нескольким направлениям, учитывая темпы развития технологий», в заявлении, опубликованном во вторник.

продолжить чтение

Я завалил интервью в Антропик, но пришел поделиться опытом

Антропик - те чуваки, которые делают Claude. Альтернатива ChatGPT от OpenAI с оооочень серьезными инвестициями от Amazon. По легенде у них есть модель сильнее o3 от OpenAI, но он настолько угорели по безопасности, что боятся ее релизить.На что подавался: Research Fellowship.Из необычного, они попросили указать контакты референсов - ребят, с которыми вы работали, и которые могут дать на вас фидбек. Да-да, теперь такое не только в академии!Интервью проходило в несколько этапов:1. Онлайн-кодинг (полтора часа).

продолжить чтение

Новая система безопасности на основе AI от Anthropic попала в руки хакеров за считанные дни

Всего за шесть дней с момента запуска проекта кому-то удалось обойти все механизмы безопасности, разработанные для защиты модели искусственного интеллекта Anthropic.Ян Лейке, бывший член команды по выравниванию OpenAI, ныне работающий в Anthropic, объявил на X, что один участник успешно преодолел все восемь уровней испытания. Коллективные усилия включали около 3700 часов тестирования и 300 000 сообщений от участников. Однако Лейке отмечает, что пока никто не нашел универсального джейлбрейка, который мог бы решить все уровни испытания сразу.

продолжить чтение

Гендиректор Anthropic: DeepSeek показал себя «худшим» в тесте безопасности данных о биологическом оружии

Генеральный директор Anthropic Дарио Амодеи обеспокоен работой китайской DeepSeek и её моделью R1. В интервью подкасту ChinaTalk Джордана Шнайдера он сказал, что DeepSeek сгенерировала информацию о биологическом оружии в ходе теста безопасности.Производительность DeepSeek оказалась «худшей из всех моделей, которые мы когда-либо тестировали», заявил Амодеи. По его словам, у модели «нет никаких барьеров против генерации чувствительной информации».

продолжить чтение

Rambler's Top100