- BrainTools - https://www.braintools.ru -

В Google DeepMind будут бороться с «неудержимым» ИИ

В Google DeepMind считают [1], что вскоре ИИ может начать игнорировать попытки пользователя его остановить. В связи с этим исследователи расширяют области рисков и совершенствуют процесс их оценки.

В Google DeepMind будут бороться с «неудержимым» ИИ - 1

В DeepMind опубликовали третью версию стратегии безопасности на переднем крае (FSF) — комплексного подхода к выявлению и снижению серьёзных рисков, связанных с передовыми моделями ИИ. Помимо экспертных оценок, при её разработке учли опыт [2], полученный при внедрении предыдущих версий ИИ.

Теперь FSF включает Critical Capability Level (Критический уровень возможностей, CCL), ориентированный на вредоносные манипуляции, в частности, на модели ИИ с такими возможностями, которые могут быть использованы не по назначению для систематического и существенного изменения убеждений.

Кроме того, исследователи расширили Framework (Рамочную программу), чтобы учесть потенциальные будущие сценарии, в которых модели ИИ могут помешать операторам изменять, прекращать свою деятельность или управлять ей. Предыдущая версия Framework включала исследовательский подход, основанный на анализе случаев, когда модель ИИ начинала вводить в заблуждение. Теперь в DeepMind предложат дополнительные протоколы для CCL, ориентированные на модели, которые могут ускорить исследования и разработки до потенциально дестабилизирующих уровней.

Для устранения рисков, связанных с CCL, исследователи проводят анализ безопасности перед внешним запуском, чтобы показать, как риски были снижены до управляемых уровней. Для CCL исследований и разработок в области машинного обучения [3] также внедряются масштабные внутренние развёртывания. Определение CCL уточнили, чтобы выявить критические угрозы, требующие самых строгих стратегий управления и смягчения последствий. 

Наконец, в DeepMind описали, как проводят комплексные оценки для систематического выявления рисков, всестороннего анализа возможностей моделей и точного определения приемлемости рисков.

Отмечается, что Рамочная программа продолжит развиваться на основе исследований, отзывов заинтересованных сторон и опыта внедрения. 

Ранее гендиректор Google DeepMind Демис Хассабис призвал [4] ИИ-компании не повторять [5] ошибок, которые социальные сети допускали на старте своего развития. По его словам, ИИ является одной из самых трансформационных технологий в истории, но его внедрение требует осторожного подхода. По словам Хассабиса, если разработчики ИИ, как и авторы соцсетей, будут прежде всего стремиться максимизировать вовлечённость пользователей, то это приведёт к тем же проблемам, начиная от нарушения концентрации внимания [6] и до ухудшения психического здоровья.

Автор: maybe_elf

Источник [7]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/19814

URLs in this post:

[1] считают: https://deepmind.google/discover/blog/strengthening-our-frontier-safety-framework/

[2] опыт: http://www.braintools.ru/article/6952

[3] обучения: http://www.braintools.ru/article/5125

[4] призвал: https://habr.com/ru/news/948816/

[5] повторять: http://www.braintools.ru/article/4012

[6] концентрации внимания: http://www.braintools.ru/article/4384

[7] Источник: https://habr.com/ru/news/949632/?utm_source=habrahabr&utm_medium=rss&utm_campaign=949632

www.BrainTools.ru

Rambler's Top100