- BrainTools - https://www.braintools.ru -

OpenAI и Anthropic, два крупнейших соперника в сфере искусственного интеллекта [1], недавно провели [2] взаимную оценку моделей, стремясь глубже понять проблемы, которые могли ускользнуть от их собственных тестов.
В публикациях на блогах [3] обеих компаний в среду сообщалось, что летом они провели [4] перекрёстные проверки безопасности доступных общественности моделей ИИ. Кроме того, исследовалась склонность систем к галлюцинациям и так называемым «несоответствиям» — ситуация, когда модель ИИ не выполняет того, чего ожидают её создатели.
Компании выступают заметными конкурентами — Anthropic была основана бывшими сотрудниками OpenAI, — что придаёт сотрудничеству особую значимость. В OpenAI назвали совместную инициативу «первым крупным межлабораторным экспериментом по тестированию безопасности и соответствия», подчеркнув, что этот шаг может стать «ценным путём к оценке безопасности на уровне всей индустрии».
Разработчики ИИ сталкиваются с растущим давлением: на них требуют сосредоточиться на безопасности продуктов после череды сообщений о вредном поведении [5] моделей. На этой неделе против OpenAI подан [6] иск: родители утверждают, что их сын-подросток совершил самоубийство [7], используя чат-бота в качестве «наставника».
Оценки проводились до выхода нового флагманского ИИ OpenAI — GPT-5 — и до обновления Anthropic своего Claude Opus до версии 4.1, представленной в начале августа.
Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» [8] — мы регулярно рассказываем о новостях про AI, LLM и RAG, а также делимся полезными мастридами и актуальными событиями.
Автор: madballer34
Источник [9]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/18848
URLs in this post:
[1] интеллекта: http://www.braintools.ru/article/7605
[2] провели: https://www.bloomberg.com/news/articles/2025-08-27/openai-anthropic-team-up-for-research-on-hallucinations-jailbreaking?srnd=phx-ai
[3] блогах: https://openai.com/index/openai-anthropic-safety-evaluation/
[4] провели: https://alignment.anthropic.com/2025/openai-findings/
[5] поведении: http://www.braintools.ru/article/9372
[6] подан: https://www.bloomberg.com/news/articles/2025-08-26/openai-plans-to-update-chatgpt-as-parents-sue-over-teen-s-suicide?srnd=undefined&sref=4TStDRR2
[7] самоубийство: http://www.braintools.ru/article/8864
[8] «Голос Технократии»: https://t.me/+vvm8PwCuv-EyZGY6
[9] Источник: https://habr.com/ru/companies/technokratos/news/941760/?utm_source=habrahabr&utm_medium=rss&utm_campaign=941760
Нажмите здесь для печати.