- BrainTools - https://www.braintools.ru -
В Google DeepMind считают [1], что вскоре ИИ может начать игнорировать попытки пользователя его остановить. В связи с этим исследователи расширяют области рисков и совершенствуют процесс их оценки.

В DeepMind опубликовали третью версию стратегии безопасности на переднем крае (FSF) — комплексного подхода к выявлению и снижению серьёзных рисков, связанных с передовыми моделями ИИ. Помимо экспертных оценок, при её разработке учли опыт [2], полученный при внедрении предыдущих версий ИИ.
Теперь FSF включает Critical Capability Level (Критический уровень возможностей, CCL), ориентированный на вредоносные манипуляции, в частности, на модели ИИ с такими возможностями, которые могут быть использованы не по назначению для систематического и существенного изменения убеждений.
Кроме того, исследователи расширили Framework (Рамочную программу), чтобы учесть потенциальные будущие сценарии, в которых модели ИИ могут помешать операторам изменять, прекращать свою деятельность или управлять ей. Предыдущая версия Framework включала исследовательский подход, основанный на анализе случаев, когда модель ИИ начинала вводить в заблуждение. Теперь в DeepMind предложат дополнительные протоколы для CCL, ориентированные на модели, которые могут ускорить исследования и разработки до потенциально дестабилизирующих уровней.
Для устранения рисков, связанных с CCL, исследователи проводят анализ безопасности перед внешним запуском, чтобы показать, как риски были снижены до управляемых уровней. Для CCL исследований и разработок в области машинного обучения [3] также внедряются масштабные внутренние развёртывания. Определение CCL уточнили, чтобы выявить критические угрозы, требующие самых строгих стратегий управления и смягчения последствий.
Наконец, в DeepMind описали, как проводят комплексные оценки для систематического выявления рисков, всестороннего анализа возможностей моделей и точного определения приемлемости рисков.
Отмечается, что Рамочная программа продолжит развиваться на основе исследований, отзывов заинтересованных сторон и опыта внедрения.
Ранее гендиректор Google DeepMind Демис Хассабис призвал [4] ИИ-компании не повторять [5] ошибок, которые социальные сети допускали на старте своего развития. По его словам, ИИ является одной из самых трансформационных технологий в истории, но его внедрение требует осторожного подхода. По словам Хассабиса, если разработчики ИИ, как и авторы соцсетей, будут прежде всего стремиться максимизировать вовлечённость пользователей, то это приведёт к тем же проблемам, начиная от нарушения концентрации внимания [6] и до ухудшения психического здоровья.
Автор: maybe_elf
Источник [7]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/19814
URLs in this post:
[1] считают: https://deepmind.google/discover/blog/strengthening-our-frontier-safety-framework/
[2] опыт: http://www.braintools.ru/article/6952
[3] обучения: http://www.braintools.ru/article/5125
[4] призвал: https://habr.com/ru/news/948816/
[5] повторять: http://www.braintools.ru/article/4012
[6] концентрации внимания: http://www.braintools.ru/article/4384
[7] Источник: https://habr.com/ru/news/949632/?utm_source=habrahabr&utm_medium=rss&utm_campaign=949632
Нажмите здесь для печати.