- BrainTools - https://www.braintools.ru -

Искусственный интеллект в системе уголовного правосудия: угрозы и гарантии

Генеральный секретарь Интерпола Юрген Шток недавно предупредил, что AI способствует совершению преступлений в «промышленном масштабе [1]» с помощью дипфейков, имитации голоса и поддельных документов.

Искусственный интеллект в системе уголовного правосудия: угрозы и гарантии - 1

Полиция по всему миру также обращается к таким инструментам AI, как распознавание лиц [2]автоматическое считывание номерных знаков [3]системы обнаружения выстрелов [4]анализ социальных сетей [5] и даже полицейские роботы [6]. Использование AI юристами также «стремительно растёт [7]», поскольку судьи принимают новые правила [8] использования AI.

Хотя AI обещает преобразовать систему уголовного правосудия, повысив эффективность работы и улучшив общественную безопасность, он также сопряжён с рисками [9]. Опасения по поводу предвзятости и дискриминации [10] AI хорошо задокументированы. Без надлежащих мер предосторожности AI рискует подорвать сами принципы истины, справедливости и подотчётности, от которых зависит система правосудия.

В недавнем отчёте Школы права Университета Британской Колумбии «Искусственный интеллект и уголовное правосудие: краткий обзор» [11] было рассказано о множестве способов, которыми AI уже влияет на людей в системе уголовного правосудия.

Угрозы и гарантии, связанные с применением полицией технологий искусственного интеллекта.

В 2020 году расследование, проведённое The New York Times [12], выявило масштабы деятельности американской компании Clearview AI, которая создала базу данных для распознавания лиц, используя более трёх миллиардов изображений, собранных из интернета, в том числе из социальных сетей, без согласия пользователей.

Полицейские агентства по всему миру, которые использовали эту программу, в том числе несколько в Канаде [13], столкнулись с негативной реакцией [14] общественности. Регулирующие органы в нескольких странах [15] обнаружили, что компания нарушила законы о конфиденциальности. Её попросили прекратить деятельность [16] в Канаде.

Однако существуют давние и устойчивые опасения, что распознавание лиц может приводить к ложным срабатываниям и другим ошибкам, особенно когда речь идёт об идентификации чернокожих и других расовых групп [17], что усугубляет системный расизм, предрассудки и дискриминацию.

Некоторые правоохранительные органы в Канаде, которые оказались втянуты в скандал с Clearview AI, с тех пор приняли новые меры, такие как политика полицейской службы Торонто [18] в отношении использования AI и программа прозрачности Королевской канадской конной полиции [19].

Глубоко фальсифицированные доказательства в суде

Ещё одна область, в которой AI создаёт проблемы для системы уголовного правосудия, — это доказательства с использованием дипфейков, в том числе документы, аудиозаписи, фотографии и видео, созданные AI.

Это явление уже привело к случаям, когда одна из сторон утверждает, что доказательства другой стороны являются дипфейком, и ставит их под сомнение, даже если они достоверны. Это явление получило название «дивиденд лжеца [20]».

Громкий пример обвинений, связанных с доказательствами, основанными на дипфейках, возник в деле Джошуа Дулина [21], которому были предъявлены обвинения, связанные с восстанием 6 января 2021 года в Капитолии США, за которое он был в конечном итоге осуждён [22]. Адвокат Дулина утверждал, что прокуроры должны проверять подлинность видеодоказательств, полученных с YouTube, что вызывает опасения по поводу возможного использования дипфейков.

Присяжные могут быть особенно склонны сомневаться в их подлинности, учитывая громкие инциденты с дипфейками, в которых участвовали знаменитости [23], или собственное использование ими технологий искусственного интеллекта [24].

Судьи также бьют тревогу по поводу проблем, связанных с выявлением всё более изощрённых доказательств дипфейков [25], которые допускаются в суде. Есть опасения, что это может привести к неправомерному осуждению или оправданию.

Алгоритмы оценки рисков

Представьте, что алгоритм искусственного интеллекта, который вы не можете понять, счёл вас склонным к побегу или к повторному совершению преступления, и эта информация была использована судьёй или комиссией по условно-досрочному освобождению, чтобы отказать вам в освобождении из-под стражи. Эта антиутопическая реальность — не выдумка, а действительность во многих частях мира.

Автоматизированное алгоритмическое принятие решений уже используется в различных странах [10] для принятия решений о доступе к государственным пособиям и жилью, оценки риска домашнего насилия, принятия решений об иммиграции и во множестве приложений в сфере уголовного правосудия [26], от решений об освобождении под залог до вынесения приговора, классификации тюрем и результатов условно-досрочного освобождения.

Люди, на которых влияют эти алгоритмы, как правило, не могут получить доступ к лежащему в их основе проприетарному программному обеспечению. Даже если бы они могли, это зачастую «чёрные ящики», в которые невозможно проникнуть.

Что ещё хуже, исследования некоторых алгоритмов выявили серьёзные проблемы, связанные с расовой предвзятостью [27]. Ключевая причина этой проблемы заключается в том, что модели AI обучаются на данных из обществ, в которых уже укоренился системный расизм. «Что посеешь, то и пожнёшь» — это распространённая поговорка, объясняющая это.

Стимулирование инноваций при одновременном обеспечении справедливости

Потребность [28] в правовом и этичном AI в ситуациях повышенного риска, связанных с уголовным правом, имеет первостепенное значение. Несомненно, необходимы новые законы, нормативные акты и стратегии, специально разработанные для решения этих проблем.

Закон Европейского союза об искусственном интеллекте [29] запрещает использование AI для таких целей, как нецеленаправленный сбор изображений из интернета или с камер видеонаблюдения, удалённая биометрическая идентификация в реальном времени в общественных местах (за некоторыми исключениями) и оценка риска рецидива, основанная исключительно на профилировании или личностных характеристиках.

Законы Канады не поспевают за развитием технологий, а те, что были предложены, вызывают вопросы. На федеральном уровне законопроект C-27 (который включает Закон об искусственном интеллекте и данныхзастрял [30] в комитете более чем на год и вряд ли будет принят этим парламентом.

Предлагаемый в Онтарио закон об искусственном интеллекте, законопроект 194 [31]освобождает полицию [32] от его применения и не содержит положений об обеспечении соблюдения прав человека.

Потенциальное влияние AI на людей в системе уголовного правосудия огромно. Без продуманного и тщательного контроля оно может подорвать доверие общества к системе правосудия и усугубить существующие проблемы с реальными человеческими последствиями.

К счастью, Канада ещё не зашла так далеко по пути повсеместного внедрения AI в систему уголовного правосудия, как другие страны. Ещё есть время, чтобы опередить их. Политики, суды и гражданское общество должны действовать быстро, чтобы AI служил правосудию, а не подрывал его.

Источник [33]

Автор: mefdayy

Источник [34]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/12056

URLs in this post:

[1] промышленном масштабе: https://ukdefencejournal.org.uk/interpol-warns-ai-is-enabling-crime-at-industrial-scale/

[2] распознавание лиц: https://www.interpol.int/en/How-we-work/Forensics/Facial-Recognition

[3] автоматическое считывание номерных знаков: https://www.eff.org/deeplinks/2024/11/human-toll-alpr-errors

[4] системы обнаружения выстрелов: https://www.dhs.gov/sites/default/files/2022-12/22_1214_st_GunshotDetection%20ystems_December2022_v2.pdf

[5] анализ социальных сетей: https://www.wired.com/story/ai-helps-police-monitor-social-media-go-too-far/

[6] полицейские роботы: https://www.bu.edu/law/files/2023/09/Regulating-Police-Robots.pdf

[7] стремительно растёт: https://nationalmagazine.ca/en-ca/articles/legal-market/legal-tech/2024/ai-use-skyrocketing-at-north-american-law-firms

[8] новые правила: https://cjc-ccm.ca/en/news/canadian-judicial-council-issues-guidelines-use-artificial-intelligence-canadian-courts

[9] сопряжён с рисками: https://digitalcommons.schulichlaw.dal.ca/cgi/viewcontent.cgi?article=1251&context=cjlt

[10] предвзятости и дискриминации: https://www.lco-cdo.org/wp-content/uploads/2020/10/Criminal-AI-Paper-Final-Oct-28-2020.pdf

[11] «Искусственный интеллект и уголовное правосудие: краткий обзор»: https://www.canlii.org/en/commentary/doc/2024CanLIIDocs2727

[12] расследование, проведённое The New York Times: https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

[13] в том числе несколько в Канаде: https://www.priv.gc.ca/en/opc-actions-and-decisions/ar_index/202021/sr_rcmp/

[14] реакцией: http://www.braintools.ru/article/1549

[15] в нескольких странах: https://theconversation.com/australias-privacy-regulator-just-dropped-its-case-against-troubling-facial-recognition-company-clearview-ai-now-what-237231

[16] прекратить деятельность: https://www.priv.gc.ca/en/opc-actions-and-decisions/investigations/investigations-into-businesses/2021/pipeda-2021-001/

[17] чернокожих и других расовых групп: https://theconversation.com/ai-used-by-police-cannot-tell-black-people-apart-and-other-reasons-canadas-ai-laws-need-urgent-attention-236752

[18] полицейской службы Торонто: https://tpsb.ca/policies-by-laws/board-policies/195-use-of-artificial-intelligence-technology

[19] программа прозрачности Королевской канадской конной полиции: https://rcmp.ca/en/corporate-information/publications-and-manuals/national-technology-onboarding-program-transparency-blueprint

[20] дивиденд лжеца: https://www.wilmerhale.com/insights/publications/20221221-the-other-side-says-your-evidence-is-a-deepfake-now-what

[21] Джошуа Дулина: https://www.theledger.com/story/news/local/2022/08/09/jan-6-capitol-riot-defendant-joshua-doolin-fights-prosecutors-limits-defense/10267348002/

[22] в конечном итоге осуждён: https://www.theledger.com/story/news/local/2024/08/20/joshua-doolin-convicted-on-jan-6-charges-leaves-prison/74824905007/

[23] инциденты с дипфейками, в которых участвовали знаменитости: https://theconversation.com/addressing-deepfake-porn-doesnt-require-new-criminal-laws-which-can-restrict-sexual-fantasy-and-promote-the-prison-system-223815

[24] интеллекта: http://www.braintools.ru/article/7605

[25] доказательств дипфейков: https://www.oba.org/JUST/Practice_List/2024/November-2024/Justice-of-Ontarios-Top-Court-Urges-Lawyers-and-J

[26] приложений в сфере уголовного правосудия: https://law.justia.com/cases/wisconsin/supreme-court/2016/2015ap000157-cr.html#:%7E:text=The%20Supreme%20Court%20affirmed%2C%20holding,the%20circuit%20court%20did%20not

[27] расовой предвзятостью: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[28] Потребность: http://www.braintools.ru/article/9534

[29] Закон Европейского союза об искусственном интеллекте: https://artificialintelligenceact.eu/high-level-summary/

[30] застрял: https://www.ourcommons.ca/committees/en/INDU/StudyActivity?studyActivityId=12157763#:%7E:text=Accordingly%2C%20Bill%20C%2D27%2C,the%20Standing%20Committee%20on%20Industry

[31] законопроект 194: https://www.ola.org/en/legislative-business/bills/parliament-43/session-1/bill-194

[32] освобождает полицию: https://www.lco-cdo.org/wp-content/uploads/2024/06/LCO-Submission-to-Government-of-Ontario-Bill-194-Consultations-June-2024.pdf

[33] Источник: https://the-decoder.com/how-ai-can-support-not-undermine-justice/

[34] Источник: https://habr.com/ru/companies/bothub/news/880982/?utm_source=habrahabr&utm_medium=rss&utm_campaign=880982

www.BrainTools.ru

Rambler's Top100