OpenAI открыла набор на программу Safety Fellowship по безопасности ИИ. ai.. ai. openai.. ai. openai. Safety Fellowship.. ai. openai. Safety Fellowship. безопасность в сети.. ai. openai. Safety Fellowship. безопасность в сети. Блог компании BotHub.. ai. openai. Safety Fellowship. безопасность в сети. Блог компании BotHub. ИИ.. ai. openai. Safety Fellowship. безопасность в сети. Блог компании BotHub. ИИ. ии и машинное обучение.. ai. openai. Safety Fellowship. безопасность в сети. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект.. ai. openai. Safety Fellowship. безопасность в сети. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект. Машинное обучение.. ai. openai. Safety Fellowship. безопасность в сети. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект. Машинное обучение. оценка уязвимостей.. ai. openai. Safety Fellowship. безопасность в сети. Блог компании BotHub. ИИ. ии и машинное обучение. искусственный интеллект. Машинное обучение. оценка уязвимостей. снижение рисков.

OpenAI анонсировала запуск OpenAI Safety Fellowship — программы стипендий для ускорения исследований в области безопасности искусственного интеллекта.

OpenAI открыла набор на программу Safety Fellowship по безопасности ИИ - 1

Инициатива направлена на привлечение талантов для разработки методов контроля рисков, связанных с продвинутыми моделями ИИ, такими как предотвращение нежелательного поведения систем и обеспечение интерпретируемости алгоритмов.

Программа стартовала в 2025 году с inaugural летним набором, участники которого уже опубликовали ключевую статью на Mechanistic Interpretability Workshop на конференции NeurIPS, а также бумаги, принятые на ICLR. Некоторые феллоу перешли в ведущие организации, включая Goodfire и Redwood Research. В 2026 году OpenAI планирует масштабирование: проведение нескольких циклов феллоушипа, удвоение числа участников и утроение команды.

Контекст создания программы связан с растущими вызовами в AI safety, где Cambridge Boston Alignment Initiative (CBAI), якорная организация по безопасности ИИ в Кембридже с конца 2022 года, играет ключевую роль.

CBAI сотрудничает с университетами Harvard, MIT и Northeastern, организуя воркшопы, такие как Harvard-MIT AI Safety Workshops (пять раз в год в Essex, MA, с 40 участниками и 10 гостями), которые планируется расширить до восьми. Гостями приглашают экспертов из Redwood Research, METR, Google DeepMind, Anthropic и команд OpenAI.

Феллоушип интегрируется с этими усилиями, предлагая не только стипендии до 100 000 долларов и API-кредиты до 1 млн долларов, но и практические проекты по оценке угроз и моделированию рисков. Позиция OpenAI подчеркивает: «Мы ускоряем исследования безопасности ИИ через феллоушипы, производя оригинальные работы».

Последствия для рынка и пользователей значительны: программа усиливает экосистему AI safety, готовя специалистов для фронтирных компаний и снижая системные риски суперинтеллекта.

Масштабирование в 2026 году (летний феллоушип в Boston metro area) повысит конкуренцию за таланты, стимулируя найм — рефералы кандидатов вознаграждаются 5000 долларов. Для пользователей это означает более надежные ИИ-модели с меньшим риском misuse, особенно в cybersecurity и threat research.

Итог — переход феллоу в ключевые фирмы усиливает консенсус по стандартам безопасности, влияя на промышленную политику и инвестиции в resilient AI-инфраструктуру.

Программа нацелена на привлечение талантов и подготовку специалистов для решения актуальных проблем в области AI safety. Участники уже сделали значительные шаги в исследованиях, что подчеркивает важность этой инициативы.


Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.

Источник

Автор: mefdayy

Источник