Искусственный интеллект и общественная безопасность

17.06.2021

В современных условиях искусственный интеллект не только позволяет решать отдельные узкие задачи, но и приближается по своим возможностям к полноценному мышлению человека. В настоящих правовых реалиях программирование и компьютеризация раскрытия и расследования преступлений осуществляются путем создания информационно-поисковых, справочных систем, а также баз данных и криминалистических алгоритмов, оптимизирующих процесс, например, через выдвижение и проверку криминалистических версий, планирование расследований, обеспечение функций поддержания порядка, розыска преступников и пр.

Перед современной юриспруденцией, ее отраслями, особенно ориентированными на прикладное использование, всегда стояла задача совершенствования применяемого инструментария, адаптации и развития возможностей для повышения эффективности в постоянно изменяющемся мире. Современная действительность в результате нарастания темпов научно-технического прогресса меняется очень быстро, в силу этого перед юристами стоит задача изучения и внедрения новых технологий.

В октябре 2019 года Президент России В. В. Путин утвердил «Национальную стратегию развития искусственного интеллекта до 2030 года». В документе указаны приоритетные научные задачи: обеспечение ускоренного развития искусственного интеллекта в Российской Федерации, проведение научных исследований в области искусственного интеллекта, повышение доступности информации и вычислительных ресурсов для пользователей, совершенствование системы подготовки кадров в этой области.

Приоритетные направления развития и использования технологий искусственного интеллекта определяются в России с учетом национальных целей и стратегических задач, определенных указом Президента Российской Федерации «О национальных целях и стратегических задачах развития Российской Федерации на период до 2024 года» от 7 мая 2018 года № 2042. Названные нормативно-правовые акты подчеркивают колоссальную государственную и общественную важность данной технологии в современной России. В настоящей статье будут рассмотрены некоторые технологические основы и возможности применения систем искусственного интеллекта в правоохранительной деятельности.

Искусственный интеллект – создаваемое с помощью группы смежных технологий программное обеспечение, функционирующее нелинейно, способное к обучению, ограниченному пониманию причинности и выполнению задач интеллектуального, эвристического характера с возможностью обучения, корректировки и уточнения за счет опыта принимаемых решений. В рамках настоящего исследования будут проанализированы только этико-правовые аспекты функционирования интеллектуальных систем, способных к обучению и ситуативной обработке информации, что исключает как традиционные программные комплексы, так и экспертные системы.

Предвзятые программные инструменты, которые используют алгоритмы искусственного интеллекта и машинного обучения для помощи в принятии решений («средства поддержки принятия решений»), могут усугубить социальное неравенство при использовании в некоторых областях, таких как правоохранительные органы. Во время гражданских беспорядков крайне важно обеспечить, чтобы такие средства принятия решений – в частности, те, которые используются правоохранительными органами – приводили к справедливым результатам.

Пример с США показывает, что Министерство внутренней безопасности США  уже вводит такие средства для принятия решений (например, распознавание лиц для проверки в аэропорту) и рассматривает другие. Эти текущие и планируемые реализации программного обеспечения должны быть проверены на предмет возможной предвзятости. Существующие усилия по устранению предвзятости искусственного интеллекта обычно сосредоточены на том, как модели машинного обучения разрабатываются и обучаются. Но предвзятость может проявляться и на других этапах разработки программного обеспечения.

Средства поддержки алгоритмических решений все чаще становятся частью операций правоохранительных органов. Эти технологии могут широко применяться, например, в биометрических системах (например, распознавание лиц) или для прогнозирования полицейских (например, картографирование горячих точек, прогнозирование риска участия человека в насильственных или серьезных преступлениях).

Мы считаем автоматизированную систему принятия решений необъективной, если (1) она последовательно дает непропорциональные результаты для разных групп людей и (2) несопоставимые ее воздействия не соизмеримы с тем, что можно было бы ожидать от людей в затронутых группах, учитывая их относительную долю среди населения.

Соображения по смягчению последствий для конкретных компонентов в Министерстве внутренней безопасности США включают следующие аспекты (некоторые из которых, возможно, уже осуществляются):

– Управление транспортной безопасности: при приобретении сканеров распознавания лиц или тела для наблюдения, служба может использовать различные способы строгого тестирования таких систем, чтобы предотвратить непредвиденные предубеждения при развертывании. Хотя служба может быть не в состоянии собрать демонстрационные данные о тех, кто проезжает через аэропорты, оно могло бы провести тестирование, которое способно учесть существовавшие ранее различия в составе населения, проезжающего через различные аэропорты страны, которые, вероятно, различаются в зависимости от области. В разных аэропортах могут потребоваться разные способы предотвращения предвзятости.

– Таможенно-пограничная служба США: при получении алгоритмических средств принятия решений для наблюдения, служба может учитывать различия в составе населения на границах и в пределах Соединенных Штатов. Этот фактор может повлиять на нынешние и будущие методы наблюдения и на внесение систематической ошибки в любую систему.

В США искусственный интеллект помогает суду выносить приговоры, избирать меры пресечения и принимать решения о смягчении наказания. Если машина, изучив данные о подозреваемом, сочтет его склонным к рецидиву, ему могут дать реальный срок вместо условного или отказать в освобождении под залог. Так, американца Эрика Лумиса приговорили к шестилетнему заключению за управление автомобилем, пассажир которого обстрелял на ходу здание. Причиной тому – выводы системы COMPAS, оценивающей опасность человека для общества. Машина изучила историю взаимоотношений подсудимого с законом и его анкету – и признала Лумиса опасным. Защита пыталась оспорить это решение: принцип работы COMPAS не разглашается, а значит, нельзя говорить о справедливости выводов системы. Однако суд счел этот аргумент несущественным.

В некоторых регионах Китая пошли еще дальше – там находят при помощи искусственного интеллекта потенциальных преступников еще до того, как они нарушат закон. Камеры с системой распознавания лиц наблюдают за гражданами и сообщают правоохранительным органам, если в объектив попало что-то подозрительное. Например, если кто-то купил слишком много удобрений за раз – ведь их могут использовать для подготовки теракта. Человека, уличенного в сомнительном поведении, полиция имеет право арестовать или направить на принудительное перевоспитание.

Пытаются предсказывать преступления и в других странах. В некоторых регионах США и Великобритании полицейские используют компьютерную систему, которая определяет, где в ближайшее время может произойти инцидент. Она учитывает множество факторов: криминальную историю района, его социально-экономический статус и даже прогноз погоды. Удивительно, но с появлением «оракула» в тех районах Чикаго, где он работал, количество инцидентов со стрельбой уменьшилось примерно на треть.

Анализ документативной статьи под названием «Identifying Systemic Bias in the Acquisition of Machine Learning Decision Aids for Law Enforcement Applications» позволил сформулировать ряд выводов и предложений, касаемо машинного обучения и искусственного интеллекта в России.

Машинное обучение – это технология, которая дает нам выбор, как донести свои желания до машины. Мы склонны все очеловечивать, в том числе машинное обучение. Но человеческим свойствам в машине просто неоткуда взяться. Нет такого места в коде, где искусственный интеллект начал бы думать о чем-то или обучаться чему-то, что вы ему не показывали. Как он сможет развить способности, которых вы ему не продемонстрировали? Поэтому истории, в которых искусственный интеллект вдруг находит какие-то альтернативные сенсорные данные и превращается в богоподобное существо – просто вымысел.

В России применение машинного обучения в правоохранительной системе развито явно недостаточно. Основным фактором, сдерживающим проникновение искусственного интеллекта в России, является финансовая ситуация. Однако первичная проблема – недостаточное правовое регулирование.

Правительство должно задать направление регулирования сферы искусственного интеллекта, что оно и делает сейчас, разработав «Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года». Конечно, одной лишь концепции недостаточно. Необходим, прежде всего, апробационный период, в ходе которого будут выявлены сферы нормативного регулирования, которые требуют наибольшего внимания, а также устранены законодательные пробелы. Если говорить про сферы права, на которые необходимо обратить наибольшее внимание – это гражданское законодательство (естественно, как основа интеллектуальной собственности), а также административное право, уголовное право. Именно регулирование на уровне отраслей права заложит основу для регулирования машинного обучения без привязки к конкретной сфере экономики или общества.

Из-за этих основных проблем мы пока в основном можем лишь наблюдать, как применяют искусственный интеллект правоохранители в других странах. Опыт скопился достаточно приличный, чтобы для нашей страны наметить те узкие сферы, где можно начинать применять машинное обучение относительно безопасно.

Главный признак искусственных нейронных сетей как одного из основных методов реализации систем искусственного интеллекта в правоохранительной деятельности, в частности – это способность к ситуационному адаптивному обучению, выявлению неочевидных связей и закономерностей. Искусственный интеллект, как и машинное обучение, может совершать достаточно серьезные ошибки – в том виде, в котором он существует сейчас. И, тем не менее, люди доверяют машине в очень важных вопросах. Уже сегодня самообучающиеся системы помогают принимать решения судьям и врачам и даже предсказывают еще не совершенные преступления. При этом пользователи таких систем далеко не всегда знают, на основе чего те делают свои выводы.

Одна из главных проблем с искусственным интеллектом, решающим судьбы людей, в том, что зачастую механизмы его работы непрозрачны, и в случае ошибки невозможно определить, что к ней привело и как избежать ее повторения в будущем. Ясно, что искусственный интеллект, машинное обучение будет и дальше внедряться в практику правоохранительной деятельности с развитием и расширением доступности технологий умного города, датчиков, интернета вещей. Разумеется, данным списком возможности систем искусственного интеллекта не ограничиваются. Эта технология обладает колоссальным потенциалом, в том числе и для решения как частных, так и общих задач правоохранительной деятельности.