1. Научно-методологические подходы к обеспечению фундаментальных прав человека при обработке данных в государственном управлении

Периодические амбициозные заявления об использовании цифровых технологий во всех сферах жизнедеятельности впечатляют масштабами и футуристическими зарисовками, но не стоит забывать о том, что все это будет происходить непосредственно в нашем обществе, т. е. в обществе со сложившимися традициями, правовой культурой и ожиданиями.

Было бы несомненной ошибкой концентрироваться лишь на радужных перспективах, игнорируя риски, которые таят цифровые технологии, в том числе (даже в особенности) при их применении в государственном управлении. Перед теорией и практикой государственного управления, перед публичным правом стоит задача осмысления технологического обновления, с тем чтобы уберечь при этом устоявшиеся человеческие и правовые ценности, одну из которых представляют фундаментальные права человека. Анализ российской и зарубежной доктрины (прежде всего юридической, а также социологической, науки управления, политологии и других общественных наук), управленческой и судебной практики, примеров из правоприменительной практики в сфере государственного управления позволяет выявить проблемы, с которыми может столкнуться система защиты прав человека при обработке данных в государственном управлении на основе цифровых технологий, и подумать о путях их преодоления.

Все чаще, когда говорится о технологиях, речь заходит об алгоритмической обработке данных в различных сферах деятельности. Обработка данных в государственном управлении на основе цифровых технологий не может осуществляться иначе как на прочной нормативной базе, четко устанавливающей права и обязанности сторон, их ответственность в случае нарушений. Учитывая содержание ст. 2 Конституции, первостепенной задачей обработки данных в государственном управлении является соблюдение фундаментальных прав человека. Соответственно использование алгоритмов в сфере государственного управления не должно и не может посягать на права человека. Однако, облегчая осуществление «юридических операций», алгоритмы содержат потенциальные риски, связанные, как правило, с цифровым неравенством, цифровым угнетением, а также предвзятостью входных данных, трудностью в понимании того, как функционирует алгоритм. Безусловно, алгоритмы в области правоприменения должны использоваться во благо прежде всего человека, особенно если это касается его основных прав, в том числе права на свободу, права на судебную защиту и др. В то же время мы не можем исключить и обратную сторону медали, а именно порождаемые технологией риски; тем самым мы не вправе полностью положиться на алгоритм; в этом смысле «конечной» инстанцией должен быть человек.

Сказанное становится особенно актуальным и в некотором смысле даже вызывает тревогу, когда речь заходит об использовании алгоритмов органами правопорядка при выявлении, расследовании и прогнозировании преступлений (предиктивная аналитика)[2], поскольку таит угрозу первому среди равных прав человека – праву на жизнь. Именно органами правопорядка алгоритмы стали использоваться наиболее активно (что будет рассмотрено подробнее ниже), и этот опыт уже начал распространяться на всю систему государственного управления.

Ввиду остроты тематики цифровизации и автоматизации в настоящий период можно наблюдать относительное разнообразие подходов к проблематике прав человека в условиях цифровизации, как, впрочем, и к пониманию прав человека в целом. При этом специфика проблем применительно к обработке данных в государственном управлении в тематических исследованиях практически не выделяется. В Европе особо заметен аспект прав человека, изучаемый безотносительно к государственному или частному сектору. Отмечается, что цифровые технологии обработки данных угрожают ключевым аспектам основных прав граждан, праву на неприкосновенность частной жизни, защиту данных и недискриминацию, а также основным ценностям европейских обществ, таким как демократия, верховенство права, автономия и самоопределение[3].

Приблизительно тот же набор рисков для прав человека был обнаружен в результате социологического исследования, проведенного в профессиональной среде, – реализованное в 2014 г., оно затронуло европейские национальные органы по защите данных. Размышляя о конкретных случаях нарушений, национальные органы по защите данных назвали основными правами или принципами, которые в наибольшей степени оспариваются при профилировании, право на защиту данных, за которым следуют право на неприкосновенность частной жизни, право на недискриминацию, право на транспарентность, право на автономию и самоопределение и право на должный процесс в ранге упоминаний[4]. Этот перечень – диапазон проблемных исследований в самом общем виде.

«Географически» можно совершенно определенно выделить:

1) подходы, развиваемые на Американском континенте, характеризуемые, во-первых, большим эмпирическим материалом в связи с более продвинутой практической стадией использования цифровых технологий, во-вторых, более гибким и адаптивным правовым аппаратом, в-третьих, заметной тенденцией к экспансии собственного опыта;

2) европейские подходы, традиционно уделяющие повышенное внимание правам человека и защите данных;

3) формирующиеся российские подходы, для которых характерно заимствование тех или иных зарубежных механизмов (довольно бессистемное). В качестве четвертого выделим китайский подход к обработке данных, квинтэссенцией которого стала система социального рейтинга граждан. Вот как европейский ученый оценивает китайский вариант: информационное развитие управления данными толкает государства к произвольным, неконтролируемым действиям с целью получения скорого результата, позволяющего контролировать и санкционировать недостаточно дисциплинированных людей[5]. В результате такого сбора уже никто не знает, кому эти данные принадлежат, частные они или публичные.

Поскольку наш дальнейший анализ будет основываться на американском и европейском подходах, имеет смысл сейчас подробнее остановиться на освещении китайского варианта, который демократические государства отвергают.


Китайский подход к обработке данных

Китай часто критикуют за отсутствие либерально-демократических структур, институтов, гражданских и политических прав, а также за его «нерешительность» в подписании и ратификации международных договоров по правам человека. Кроме того, типичными в китайском обществе и политике являются общинные ценности, где коллективные права и обязанности преобладают над индивидуальными в сочетании с последними. В связи с этим в литературе встречается точка зрения о существовании прав человека с китайскими особенностями[6].

В рамках системы социального кредита осуществляется ранжирование китайских граждан, компаний, организаций, а также государственных учреждений по степени их надежности. Надежность «присуждается» в виде зачетных баллов (кредитов), основанных на соблюдении правовых, моральных и профессиональных норм и стандартов. Накопленные кредиты могут повлиять на возможности человека в жизни: тем, у кого высокий балл, будут предложены определенные преимущества, в то время как те, у кого балл более низкий, будут подвергаться различным санкциям. В то же время лица с низким баллом могут получить образование и предпринять шаги для повышения своего социального балла. Цель заключается в поощрении надежности и наказании за проявление ненадежности[7], что будет способствовать как упорядочению рынка, так и социальному управлению для достижения конечной цели построения гармоничного социалистического общества[8].

При этом идея социального управления и соблюдения правил, основанных на моральном и образцовом поведении, уже давно стала нормой управления в Китае[9]. Основой системы наказания и обучения выступает убеждение о податливости человеческой природы, что может привести к материальному и духовному развитию и социальной стабильности[10]. По мнению китайского правительства, система социального кредита необходима для решения проблем в финансовом и коммерческом секторах, связанных, как правило, с мошенничеством, коррупцией и долговыми обязательствами[11]. В литературе данная система описывается в качестве схемы обратной связи, которая формирует, управляет и реагирует на поведение граждан[12]. При этом она рассматривается не только как система нисходящего социального контроля, но и как стимул для людей к самоконтролю и соответствующей корректировке своего поведения. Кроме того, правительство поощряет «одноранговое» наблюдение, присуждая баллы тем, кто сообщает о плохом поведении других людей.

Система социального кредита позволяет применять совместные меры дисциплинарного воздействия. Сказанное означает, что, если гражданин не соблюдает требования в рамках одной области права, к нему могут быть применены санкции из другой области. Например, отказ от уплаты налогов может привести к запрету на путешествие самолетом. Несколько учреждений уже опубликовали «черные списки» ненадежных лиц, а частные субъекты внедряют собственные схемы социального кредита. В связи с этим система социального кредита рассматривается в качестве «инфраструктуры государственного надзора», поскольку охватывает все социальные, экономические и политические сферы, а границы между частным сектором и государством становятся все более размытыми[13].

С технико-организационной точки зрения система социального кредита представляет собой комплексную стратегию больших данных, которая включает сбор персональных данных всех граждан, а также данных о государственных и частных организациях. Это проникающая система обработки персональных данных в соответствии с амбициозными планами китайского правительства по использованию преимуществ технологии больших данных[14]. Данные собирают посредством обширного мониторинга таких видов деятельности, как интернет-трафик, транзакции, мобильные телефоны и камеры видеонаблюдения с технологией распознавания лиц. Тем самым система социального кредита использует как онлайн-, так и офлайн-источники, а также публичные и частные приложения больших данных для создания огромного каталога информации о китайских гражданах и организациях.

В связи с тем что уровень проникновения Интернета и количество интернет-пользователей в Китае значительно возрастают, персональные данные становятся все более доступными для правительства, причем постоянно[15]. При этом необходимо понимать, что система социального кредита не является единой, а представляет собой сеть различных коммерческих и правительственных систем рейтингов, санкций и вознаграждений[16]. В соответствии с планом китайского правительства предусматривается создание нескольких кредитных систем в следующих основных сферах: государственной, коммерческой, социальной и судебной[17].

Кроме того, частные субъекты также участвуют в схемах кредитного скоринга. В 2015 г. компания Alibaba запустила собственную систему кредитного скоринга Sesame Credit, которая ранжирует пользователей не только на основе их покупок, но и на информации о покупательских привычках их друзей. Результаты Sesame могут выступать основанием для определения размера страховой премии, а также того, каким образом будет осуществлен осмотр человека службой безопасности в аэропорту или размещены анкеты пользователя (от места расположения анкеты зависит больший или меньший охват аудитории) на сервисах онлайн-знакомств[18]. Таким образом, оценка Sesame может оказать влияние на повседневную жизнь его пользователей. Несмотря на то что система предлагает удобство для многих граждан, преимущество и удобство для одних означают санкции и исключение для других[19]. При этом такой скоринг является добровольным (круг вовлеченных лиц ограничивается пользователями данной системы) в отличие от системы социального кредита, которая носит обязательный характер. Тем самым круг участников скоринга становится неограниченным, как и возможности для применения различного рода санкций[20].

Помимо этого частные субъекты сотрудничают с правительством в целях создания централизованной кредитной инфраструктуры. Данные частных акторов используются для улучшения центральной кредитной системы, взамен они получают данные из правительственных баз данных[21]. Например, многоцелевое приложение для социальных сетей WeChat делится данными миллиарда своих пользователей с правительством Китая, основываясь на различного рода активности пользователей, как, например, социальные взаимодействия и онлайн-покупки. Так, на уровне местных кредитных систем граждане могут проверить свой личный счет, используя WeChat[22].

В литературе встречается точка зрения, согласно которой система социального кредита рассматривается в качестве инфраструктуры наблюдения, включающей практически всех участников общества – должностных лиц, отдельных индивидов, государственные учреждения и корпорации, группы. Ввиду того что генерация данных отделена от анализа данных, третья сторона также становится участником в практике наблюдения, в то время как субъекты данных необязательно знают, как используются их данные. Возможности для наблюдения значительно расширяются, по мере того как правительство использует новые технологии. Такие технологии позволяют осуществлять более тонкое и скрытое наблюдение по сравнению с традиционными инструментами, поскольку политические цели заранее встроены в алгоритмы. В результате владение данными определяет распределение полномочий, а обмен данными приводит к умышленному искажению транспарентности и подотчетности[23]. Последнее еще более усугубляется алгоритмами машинного обучения, которые обрабатывают поведенческие данные и создают зачетные баллы (кредиты). Система регулируется национальным и местным законодательством, но по-прежнему наблюдается значительное отсутствие надлежащих правовых рамок для защиты конфиденциальности и персональных данных. Кроме того, открытым остается вопрос относительно того, все ли государственные структуры будут подчиняться этой системе или же определенные сегменты высшего руководства Коммунистической партии Китая будут исключены.

Влияние системы социального кредита на права человека. Право на неприкосновенность частной жизни в соответствии с системой социального кредита строго ограничено, поскольку личные подробности частной и общественной жизни людей становятся датафицированными (осуществляется сбор, обработка и использование результатов обработки больших данных) в отсутствие полного согласия с их стороны. Эти данные собирают и тщательно изучают в целях осуществления социального контроля, и правительство может использовать как данные, так и метаданные для прогнозирования и выработки политических решений. В данном контексте отсутствуют право на забвение, а также вопрос повторной идентификации, поскольку в основу данной системы заложено хранение «сокровищницы» личных данных. Это, безусловно, дает Китаю технические преимущества в сфере использования искусственного интеллекта – велика вероятность, что Китай выиграет гонку в сфере цифрового ИИ, поскольку разработчики в области информационных технологий будут иметь неограниченный доступ к данным по крайней мере по сравнению с разработчиками из европейских стран, в которых существуют строгие правила в отношении персональных данных. Однако нельзя сбрасывать со счетов вопросы обеспечения кибербезопасности и защиты данных. Как утверждается, Китай имеет достаточно плохие показатели безопасности данных, в связи с чем личная информация становится легкодоступной, что делает систему социального кредита уязвимой для взлома и незаконного доступа[24].

Таким образом, система социального кредита бросает вызов неприкосновенности частной жизни с точки зрения как сбора данных посредством широко распространенного наблюдения, так и обмена данными между различными организациями, в том числе между частными и публичными субъектами. Цифровые следы используются не только для целевого маркетинга или улучшения онлайн-сервисов, но и для обучения ИИ и информирования правительства о привычках, деятельности и активности людей. Камеры общественного наблюдения с технологией распознавания лиц предоставляют правительству почти полный и постоянный доступ ко всем общественным пространствам, а цифровое наблюдение с помощью крупных технологических компаний доставляет правительству информацию о частной и общественной жизни граждан. Одноранговое наблюдение дает правительству офлайн-доступ к социальным сферам, которые иным образом были бы недоступны. Использование алгоритмов машинного обучения для обработки данных в дополнение к широко распространенной практике обмена данными приводит к тому, что люди теряют право на монопольное использование своей персональной информации[25].

Кроме того, система социального кредита может привести к дискриминационной практике. Прежде всего, несмотря на планы объединения региональных систем в национальную кредитную систему, местные органы власти и администрации все равно будут определять критерии, по которым станут оцениваться отдельные лица. Из-за отсутствия единого стандарта граждане находятся во власти местных органов. В этом случае крестьяне в сельской местности могут пользоваться иной кредитной схемой, чем жители городских районов. По мере перемещения данных между секторами и учреждениями дефекты в данных в одной базе данных могут быть реплицированы во всех базах данных, через которые эти данные проходят. Тем самым любая предвзятость в данных, которая не будет должным образом «сглажена», будет продолжать находиться в потоке данных, а возможно, даже увеличиваться или изменяться в другом контексте[26].

Необходимо также иметь в виду, что получить полностью объективные данные практически невозможно. Таким образом, маркировка данных в качестве «объективных» или «необработанных» может быть вредной, поскольку она явно игнорирует потенциальную предвзятость данных. Одинаково сложно создать объективный алгоритм машинного обучения, с помощью которого можно обрабатывать данные, ранжировать граждан, а также определять, как алгоритм будет реагировать на новые данные. Ясно, что предвзятость может быть смягчена, но для этого ее существование требуется признать, что нехарактерно для Китая[27].

При этом при анализе больших данных некое пренебрежение к необходимости смягчения предвзятости данных может явиться причиной дискриминационных действий, например предиктивной полицейской деятельности. На микроуровне «подозрительные» корреляции, основанные на прогнозах больших данных, могут быть использованы против отдельных лиц, например, невозможность зачисления детей в частную школу из-за низкого социального рейтинга их родителей (что само по себе является одним из примеров косвенной дискриминации в отношении детей). Однако предвидение рисков не работает на индивидуальном уровне, и такая предиктивная полицейская деятельность, скорее всего, будет представлять собой нарушение права на равенство перед законом. В свою очередь на макроуровне система социального кредита может информировать правительство о тенденциях, общественном мнении и возможных проблемах в обществе, что может помочь правительству в прогнозировании социального контроля и выработке политической стратегии[28].

Приведенный нами обзор касательно китайского варианта обработки данных приводит к выводу о том, что его реализация в Российской Федерации невозможна ввиду очевидного конфликта с правами человека, признанными в подписанных Россией (в отличие от Китая) международных актах и имплементированных в гл. 2 российской Конституции, а также распространившихся в отраслевых актах законодательства.

Проанализированные нами в рамках основного исследования зарубежные (американские и европейские) и российские подходы к обеспечению фундаментальных прав человека при обработке данных в государственном управлении можно систематизировать по нескольким направлениям.

1.1. Правовое регулирование использования алгоритмов для обработки данных в государственном управлении

Алгоритм является базовым понятием в проблематике автоматизированной обработки данных. Начнем с того, что алгоритмы существовали задолго до того, как получили свое наименование. Они порождены необходимостью находить быстрые и эффективные решения посредством трансформации данных при помощи точных указаний, применяющихся поэтапно. В принципе обычный кулинарный рецепт – это уже алгоритм, который содержит пошаговую инструкцию для достижения определенного результата. Правовая норма тоже алгоритм, содержащий набор данных, условий их применения в заданной последовательности также для достижения некоего результата (решения определенной проблемы). Выходит, право и алгоритм крайне близки по сути. Если отталкиваться от классических определений – право как система норм, регулирующих отношения между людьми в обществе, и алгоритм как совокупность инструкций, разрешающих проблему, – то понятие алгоритма оказывается более широким. В этом смысле право можно рассматривать как специфический алгоритм (юридический), объединяющий совокупность инструкций, разрешающих проблемы, возникающие из отношений людей в обществе[29].

Но развитие информационных технологий, успех науки информатики прочно связали понятие алгоритма с информационным обеспечением. Поэтому, произнося слово «алгоритм», мы переносимся в область программирования.

Оксфордский словарь английского языка определяет алгоритм как процесс или набор правил, которым необходимо следовать при осуществлении вычислений или других операций, связанных с решением задач, как правило, с помощью компьютера[30]. В настоящее время под алгоритмом обычно понимают либо фрагмент кода, либо компьютерное приложение, которое может быть использовано в целях оказания содействия человеку в процессе принятия решений или для выполнения действий, не требующих его непосредственного участия[31]. Так, алгоритмы уже используются при вынесении приговоров и принятии решений об условно-досрочном освобождении; для прогнозирования «мест притяжения» криминальной активности в целях содействия органам правопорядка и рационального распределения ресурсов; при персонализации результатов поиска, электронных новостных лент и рекламы; для выявления мошенничества; определения кредитных рейтингов; облегчения набора персонала, а также оказания медицинских и юридических услуг и др. Используются алгоритмы и в сфере государственного управления. В этом смысле особого внимания требуют алгоритмы, которые применяются для поддержки принятия решений. Некоторые из наиболее известных примеров использования алгоритмов связаны с процессом принятия решений, что непосредственно оказывает воздействие на права человека. Один из наиболее часто приводимых примеров в связи с этим – использование алгоритмов для оценки степени риска при вынесении приговоров, учитывая, что такая оценка может иметь прямое отношение к праву человека на свободу и запрету дискриминации[32]. Подобный кейс будет рассмотрен нами ниже.

Доступность алгоритмов в совокупности с использованием оценки степени риска потенциально может повлиять на права человека, особенно в отношении тех, кто находится в уязвимом положении в ключевых областях жизни (пища, жилище, занятость). Прогнозная аналитика может применяться и для защиты детей. Например, London Council в сотрудничестве с частными поставщиками услуг использует алгоритмы, объединяя данные нескольких агентств, и применяет риск-ориентированный подход для определения вероятности жестокого обращения с ребенком или отсутствия заботы о нем. Сказанное вызывает к жизни вопросы конфиденциальности и защиты данных, а также вопросы, связанные с правом на уважение частной и семейной жизни и дискриминацией. В связи с этим прежде всего необходимо определить, можно ли использовать алгоритм для принятия решений или для содействия в его принятии, если речь идет о конкретной жизненной ситуации. Алгоритмы, управляющие большими данными, – искусственный интеллект или алгоритмы машинного обучения – обычно работают на основе корреляции и статистической вероятности. Однако природа таких алгоритмов, с одной стороны, заключается в генерации результатов, которые описывают поведение группы, но не адаптированы к конкретным людям внутри этой группы, а с другой – не зависит от размера или качества входного набора данных[33].

В целях настоящего исследования нельзя обойти вниманием отправной научно-методологический подход, связанный с правовым осмыслением цифровых технологий в целом и алгоритмов в частности. Если в отношении технологий право «колеблется» между киберлибертарианством (утверждающим, что технологии радикально изменят право и приведут к утрате его значения перед лицом программного кода) и консервативной позицией, считающей, что право с легкостью урегулирует любые цифровые технологии в традиционном ключе, то касательно алгоритмов право изначально занимало позицию регулятора, т. е. право относится к алгоритму как объекту регулирования. При этом в юридическом смысле правовой охране подлежали не сами алгоритмы, а программы. Причем, что особенно важно для государственного управления, происходило это в рамках гражданского права, которое, как известно, распространяется на отношения с участием государства в ограниченном объеме.

Программы для ЭВМ в целях охраны авторским правом в силу указания ст. 1261 ГК РФ и в соответствии с закрепленными на международном уровне подходами условно приравниваются к произведениям литературы. Аналогичное правило предусмотрено в п. 1 ст. 1 °Cоглашения по торговым аспектам прав интеллектуальной собственности, согласно которому компьютерные программы, которые могут быть выражены на любом языке и в любой форме, включая исходный текст и объектный код, подлежат авторско-правовой охране как литературные произведения. Однако необходимо учитывать специфику программ для ЭВМ, которая вытекает из их предназначения – обеспечивать функционирование компьютерных устройств, осуществление определенных алгоритмов и процессов, достижение результатов, имеющих по своей сущности технический характер. Перед литературными произведениями такой задачи не ставится[34].

Алгоритм как последовательность операций является основным компонентом программы, отражая ту главную идею, согласно которой должен работать компьютер. Однако в соответствии с п. 5 ст. 1259 ГК РФ авторские права не распространяются на идеи, концепции, принципы, методы, процессы, системы, способы решения технических, организационных или иных задач, открытия, факты, языки программирования. В итоге алгоритм как таковой лишен правовой защиты, охраняется лишь его реализация в виде последовательности операций и действий над этими операциями[35]. Это обстоятельство имеет перспективное значение, если иметь в виду использование алгоритмов в государственном управлении в качестве «замены» человека, принимающего решения. В этом смысле алгоритм как бы становится стороной управленческого отношения и «несет обязанности» в отношении граждан, в том числе по соблюдению прав человека.

Тем не менее согласно директиве 91/250/СЕ от 14 мая 1991 г. «О правовой охране компьютерных программ» такая защита предоставлялась только самим программам, но не идеям и принципам, лежащим в основе алгоритма[36]. Это правило сохранилось и в новой директиве 2009/24 от 23 апреля 2009 г.[37]Суд Европейского союза подтвердил изложенную позицию, указав, что защите авторским правом подлежат код-источник (исходный текст) и объектный код компьютерной программы[38].

Между тем не только в зарубежных странах, но и в России на практике осуществляется патентование алгоритмов (в качестве изобретений (способа))[39]. Программные алгоритмы могут быть запатентованы в качестве изобретений в виде технических решений, относящихся к способу (п. 1 ст. 1350 ГК РФ). Но для этого разработчикам необходимо добиться соответствия решения требованию изобретательского уровня и определить ожидаемый материально-технический результат, которого предполагается достичь за счет данного решения[40].

Таким образом, алгоритмы хорошо знакомы праву в качестве объектов регулирования, но праву гражданскому, частному. Для полноценного использования алгоритмов в государственном управлении необходимо публично-правовое регулирование возникающих отношений, что позволит обеспечить защиту прав граждан посредством публично-правовых механизмов.

Широкое распространение ИКТ и в особенности цифровых технологий, их применение в государственном управлении дали основание для введения алгоритмов в поле публичного права. Любопытно, что понятие «алгоритм» в российских нормативных правовых актах почти не употребляется в его техническом значении, а используется для обозначения порядка действий (например, алгоритм (порядок) взаимодействия заинтересованных органов государственной власти при выявлении противоправного контента в сети Интернет, принятый Роскомнадзором).

В Европе тоже избегают понятия «алгоритм». С 1981 г. используется термин «автоматизированная обработка данных», который напоминает алгоритм по содержанию (совокупность действий): автоматизированная обработка включает следующие операции, осуществляемые полностью или частично с помощью автоматизированных средств: хранение данных, осуществление логических и/или арифметических операций с этими данными, их изменение, уничтожение, поиск или распространение (Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных от 28 января 1981 г.)[41].

Нетрудно заметить, что сфера применения автоматизированной обработки данных ограничена персональными данными, т. е. публично-правовая защита сконцентрирована на человеке с его частной жизнью и персональными данными. Собственно, так и произошло право на защиту персональных данных и была заложена традиция «сопротивления» индивидуальным автоматизированным решениям. Так, Регламент № 2018/1725 Европейского парламента и Совета Европейского союза «О защите физических лиц при обработке персональных данных» (п. 43) определяет, что субъект данных должен иметь право не подчиняться решению, которое может включать принятие мер, оценивающих личные аспекты, относящиеся к нему или к ней, которое основывается исключительно на автоматизированной обработке и результатом которого являются юридические последствия в отношении его или ее или которое сходным образом может значительно повлиять на него или на нее, такое как практики электронного подбора кадров без вмешательства человека[42].

В русле европейских правовых позиций выстроен и российский закон. Согласно ст. 16 ФЗ от 27.07.2006 г. «О персональных данных»[43] субъект персональных данных имеет право отказаться от принятия в отношении него решения на основании исключительно автоматизированной обработки персональных данных. К признакам такого решения относится то, что оно порождает юридические последствия в отношении субъекта персональных данных или иным образом затрагивает его права и законные интересы. Отметим, что в данной нормативной установке центр тяжести принятия решения (право выбора) лежит на субъекте персональных данных, гражданине. Действия государства данная норма не ограничивает.

При этом имеется в виду самый широкий круг решений – как управленческих, так и любых иных. Обработка персональных данных, осуществляемая в частном секторе, порождает вопросы при заключении и исполнении «договора в онлайн-среде в полностью автоматизированном режиме, например при размещении заказа на приобретение цифрового контента, который становится доступным для загрузки по факту оплаты»[44].

Но вернемся к публичному праву, которое интересуют управленческие решения, принимаемые органами власти на общем уровне – в отношении неопределенного или значительного круга лиц (в отношении охраняемых законом ценностей) и на индивидуальном уровне – в отношении граждан на основе автоматизированной обработки данных. Если в первом случае нарушения прав человека могут иметь место в обобществленном и массовом виде (официальное утверждение нормативного порядка предоставления льгот на дискриминационной основе), то во втором – будет иметь место нарушение права человека как субъективного права, защитить которое можно уже только в индивидуальном порядке. Любопытно, что внедрение алгоритмов, по сути, нивелирует это разграничение и, к примеру, дискриминационная практика реализации алгоритма в отношении конкретных лиц одновременно является массовой (что будет подробнее показано ниже).

Нужно учитывать, что сама идея алгоритма как совокупности инструкций, позволяющих решить проблему и достичь определенного заданного результата, как нельзя лучше отвечает концепции надлежащего, качественного государственного управления, нацеленного на достижение заранее запланированных, ожидаемых результатов, ведь результат управленческой деятельности можно легко заложить в алгоритм принятия управленческого решения. Это дает основания полагать, что в ближайшие годы государство активно займется подобной автоматизацией управленческих решений, а потому необходимо заранее изучить возможные риски. Во всяком случае положение о совместимости алгоритмов и концепции надлежащего государственного управления выдвигается нами в качестве гипотезы настоящего исследования.

Первым делом нужно понять, в каких государственных сферах такая автоматизация может произойти в первую очередь. Поскольку алгоритм – последовательность заранее определенных действий, их наибольшая эффективность прогнозируется в сферах, где не приветствуется широта действий органов власти, проще говоря, где нет (и не должно быть) дискреционных полномочий.

Загрузка...