Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Право и политика
Правильная ссылка на статью:

Создание и применение искусственного интеллекта в публичных целях: сравнительно-правовой анализ

Атабеков Атабек Рустамович

кандидат экономических наук

доцент, кафедра административного и финансового права, Российский университет дружбы народов

117198, Россия, г. Москва, ул. Миклухо-Маклая, 6

Atabekov Atabek Rustamovich

PhD in Economics

Associate Professor of the Department of Administrative and Financial Law, Legal Institute, Peoples' Friendship University of Russia

117198, Russia, Moscow, Miklukho-Maklaya str., 6

atabekoff1@mail.ru
Другие публикации этого автора
 

 

DOI:

10.7256/2454-0706.2023.6.40848

EDN:

IIGGCY

Дата направления статьи в редакцию:

27-05-2023


Дата публикации:

06-06-2023


Аннотация: Предметом исследования выступают вопросы влияния проектирования искусственного интеллекта на последующее его применение в публичной сфере. Объектом исследования выступают нормативные документы, рекомендации и иные документы регламентирующие вопросы преоктирования искусственного интеллекта для публичных правоотношений в России и зарубежных странах, судебная практика, академические публикации и аналитические отчеты по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования проблем проектирования искусственного интеллекта и его последующего применения в рамках публично-правового поля в контексте проблем заложенных на базовом этапе создания. В рамках статьи проводится сравнительный анализ действующих подходов по вопросам соответствия проектируемого искусственного интеллекта (ИИ) для публичных целей зарубежных стран и России действующим национальным стратегиям и нормативным подходам. В рамках проведенного сравнительного анализа выявлены базовые проблемы в области прозрачности принятия решения искусственного интеллекта, проблемы неявного регулятивного характера для ИИ в публичной сфере проистекающие из технического дизайна проектируемого разработчиками систем ИИ, рассмотрены теоретические и практические ситуации применения искусственного интеллекта не соответствующего принципам проектирования ИИ на базе основополагающих правовых норм, а также предложены возможные компенсирующие правовые мероприятия, обеспечивающие безопасную интеграцию искусственного интеллекта в публичную сферу России. Предложенные в результате проведенного исследования мероприятия могут найти свое применение в законодательной и правоприменительной практике профильных органов власти реализующих интеграцию искусственного интеллекта в сферу публичных отношений в России, а также научной сфере в целях определения последующих векторов анализа минимизации предубежденности ИИ в результате некорректного проектирования технологии в нарушении базовых правовых конструкций.


Ключевые слова:

искусственный интеллект, электронное лицо, сравнительно-правовое исследование ИИ, технический дизайн, предубежденный ИИ, безопасный ИИ, публичное право, административное право, информационное право, правоприменительная практика

Abstract: The article focuses on a comparative analysis of existing approaches regarding the compliance of the artificial intelligence (AI) designed for public purposes in foreign countries and Russia with the current national strategies and regulatory approaches. As part of the study, the research identified the basic problems in the field of transparency in the decision-making of artificial intelligence, specified challenges to implicit regulatory nature for AI in the public sphere arising from the technical design of AI systems designed by developers; suggested theoretical and practical situations of using artificial intelligence that does not comply with the principles of designing AI on the basis of fundamental legal norms; and outlined possible compensatory legal measures that ensure the safe integration of artificial intelligence into the Russian public sphere. The subject of the study covers the issues of the influence of the design of artificial intelligence on its subsequent application in the public sphere. The object of the study focuses on the normative documents, recommendations and other documents regulating the issues of artificial intelligence preoccupation for public legal relations in Russia and foreign countries, judicial practice, academic publications and analytical reports on the issues under study. The research methodology integrates a complex of modern philosophical, general scientific, special scientific methods of cognition, including dialectical, systemic, structural-functional, hermeneutical, comparative legal, formal legal (dogmatic), etc. Within the framework of this study, special emphasis is placed on the implementation of a comparative legal study of the problems of designing artificial intelligence and its subsequent application within the public law field in the context of the problems inherent in the basic stage of creation. Subsequently, potential scenarios for regulating responsibility for AI actions are identified. The research has resulted in asset of measures that can be applied in the legislative and law enforcement practice of relevant authorities implementing the integration of artificial intelligence into the sphere of public relations in Russia, as well as in the scientific field in order to determine subsequent vectors for analyzing the minimization of AI bias as a result of incorrect technology design in violation of the basic legal structures.


Keywords:

artificial intelligence, electronic face, comparative legal research of AI, tech design, biased by AI, secure AI, public law, administrative law, information law, law enforcement practice

Правительства разных стран все чаще используют технические и информационные системы системы в рамках правоприменительной практики. Например, представители власти используют компьютерные системы для вынесения приговоров обвиняемым, утверждения или отказа в предоставлении государственных пособий, прогнозирования мест совершения будущих преступлений и введения запрета на въезд через границу государства [1-2]. В каждом случае технология используется для принятия важных решений в отношении индивидуальных юридических прав или распределения государственных ресурсов.

Одним из важных открытий является то, что технологии могут иметь «ценности» (она же политика и технические правила), имплементированные в их конструкцию [3]. В этом контексте имеется ввиду влияние технического дизайна (удобство интерфейса, его доступность, понятность пользователю, юридическая осведомленность и т.д.), которое в последствие генерирует ту самую ценность в т.ч. посредством формирования определенных преференций для конкретных социальных подгрупп.

В этой логике интересной отправной точкой является позиция Лессига который отметил, что инженерную архитектуру технологической системы можно рассматривать как аналог правового регулирования (в контексте запретов и правоустанавливающих аспектов)[4]. Исследователь отметил, что в то время, как законы явно и открыто регулируют общество, технический дизайн может аналогичным образом влиять на поведение или «ценности» для общества, но часто менее очевидным образом.

Та же технология интернета (которая в принципе является одним из столпов текущего технологического уклада), в рамках реализации инженерных решений сталкивалась с проблемами в области обеспечения анонимности [5]. С одной стороны, анонимность обеспечивала свободу слова и поведения, с другой затрудняла идентификацию преступников и экстремистов.

В этом контексте становится актуальным вопрос технического дизайна, который выступает неявным регулятивным инструментом, находящимся за контуром контроля правительства и отданным на откуп разработчикам.

Рассматривая стратегические национальные документы Франции в области регулятивной политики в отношении искусственного интеллекта (далее - ИИ), необходимо обратить внимание на необходимость выработки не регулятивных, а этических требований в области разработки ИИ, включая следующие: внедрение объяснимых инструментов проводящих аудит систем ИИ, внедрение дополнительных инструментов мониторинга дискриминационного воздействия ИИ, контроля исключительной роли человеческого суждения и невозможности ее подмены ИИ и иные публичные аспекты (создание экспертных советов и т.д.) [6].

При этом иная позиция представлена в стратегическом документе Президента США, в котором отсутствуют указанные положения и весь регулятивный акцент направлен на создание необходимых финансовых условий для НИОКР, а также на безопасную интеграцию ИИ в сферу государственного управления с точки зрения безопасности данных и их управляемости [7].

В национальной стратегии ИИ Германии подготовлен отдельный раздел в отношении регулятивных подходов для указанной технологии [8]. В определении регулятивной политики Германии относительно ИИ делается значимый акцент на соблюдении фундаментальных прав, которые лежат в основе строя Федеративной Республики Германии и закреплены в Конституции ФРГ, включая, в частности, общую свободу действий, защиту неприкосновенность частной жизни гражданина и его контроль над своими личными данными. Отмечается, что действующее законодательство нуждается в пересмотре с учетом технологического развития ИИ и наличия неурегулированных аспектов в отношении указанной технологии. Отдельно предлагается закрепить контроль технического дизайна с точки зрения безопасности для пользователя.

В рамках стратегии имплементации ИИ в сферу публичных правоотношений России необходимо обратиться к Указу Президента Российской Федерации [9] и Распоряжению Правительства Российской Федерации[10].

В положениях 49 Указа Президента России обозначена необходимость благоприятного режима допуска к данным, проведения тестирования ИИ, снятия административных барьеров для продукции ИИ, разработки единых систем стандартизации, стимулирования привлечения инвестиций, а также разработка этических правил. При этом, создание гибкой системы регулирования ИИ планируется к 2030 году. С точки зрения вопросов регламентации технического дизайна ИИ необходимо более подробно обратиться к Распоряжению Правительства Российской Федерации, в подразделе 4 раздела 1, в котором отмечены базовые правовые проблемы, требующие решения. Среди них выделяются соблюдение баланса между защитой персональных данных и обучения ИИ, определение предмета и границ регулирования ИИ, идентификация систем ИИ при взаимодействии с человеком, решение вопросов правового делегирования решений ИИ, ответственность за действия ИИ, прозрачность ИИ и т.д. Среди принципов регулирования ИИ в рамках указанного документа закрепляется обязанность разработчиков при проектировании ИИ соблюдения принципов соответствия законов, т.е. применение систем ИИ не должно заведомо для разработчика приводить к нарушению правовых норм.

На уровне доктринальных исследований реализация неявных стратегий на практическом правоприменительном поле отмечают Солон Барокас и Эндрю Селбст. Исследователи указывают на расовые или этнические предубеждения, которые могут возникнуть при алгоритмическом принятии решений [11]. Джошуа Кролл, Эдвард Фелтен, а также Даниэль Цитрон обращают внимание на отсутствие подотчетности при принятии решений на основе компьютеров, что все чаще встречается в контексте принимаемых алгоритмических решениях правительства [12-13].

Отечественные ученые также выделяют существенные проблемы, проистекающие из вопросов технического дизайна и его регулятивно-правовых особенностей. Д.В. Бахтеев в своем объемном исследовании отмечает необходимость на проектируемом этапе разработки учитывать уважение основных конституционных прав человека и гражданин, компетентность разработчика, а также ряд иных требований направленных на снижение рисков неправомерного применения ИИ [14]. В. Э. Карпов и др. фокусируются на проблеме отсутствия этической верификации при проектировании и разработки ИИ, что в свою очередь формирует практику корректировки действий ИИ по факту сбоев, а не упреждающий характер реагирования со стороны разработчика [15]. А. В. Минбалеев [16] а также О.А. Ястребов и д.р. [17] поднимают последующий вопрос возможности выделения отдельной правосубъектности ИИ как электронного лица, что может иметь принципиальное значение на условном этапе его «рождения».

При рассмотрении практических примеров предлагается обратиться к опыту США, с технологией MiDAS. В рамках осуществления автоматического анализа мошеннических действий, связанных с получением пособия по безработице, Агентство по страхованию от безработицы штата Мичиган, внедрило указанный алгоритм в свою правоприменительную практику. Отличительной чертой указанного алгоритма является отсутствие процедуры оспаривания принятого решения ИИ в рамках указанного органа власти. Следствием некорректной работы соответствующего ИИ является большой круг пострадавших от действий органа власти, которые обратились в суд и обжаловали неправомерно принятые ИИ решения [18]. В рамках резолютивной части решения суда выделено вменение вины за действия ИИ в адрес его разработчиков.

Вторым примечательным примером выступает SyRi, которая также использовалась для выявления мошенничества в сфере социального обеспечения [19]. Однако в рамках указанного кейса в суде оспаривалось не столько действия самого ИИ, сколько вопросы «черного ящика» [20], в рамках которого не был понятен алгоритм принятого машинным обучением решения. Мотивировочная часть судебного решения базируется на нарушении статьи 8 Европейской конвенции о правах человека при применении указанной технологии госслужащими.

При этом следует отметить, что в основе вышеуказанных кейсов со стороны госслужащих и пользователей так же присутствует определенная предубежденность в отношении самой ИИ, как более беспристрастной системы при принятии решений. В этой связи нам представляется возможным сделать акцент на положения Арбитражного процессуального кодекса России, где прямо зафиксирована опция суда принимать решения на основании внутреннего убеждения (ч. 1. ст. 71 АПК РФ [21]).

Кроме того, обсуждая данную проблематику, нельзя не вспомнить кейс в смежной области права в зарубежной практике, связанной с программой Компас, оценивающей риск рецидива у подсудимого [22].

Следует понимать, что формально рекомендательный отчет на самом деле маскирует основную серию субъективных суждений со стороны разработчиков системы. Этот субъективный выбор включает следующие позиции: какие источники данных использовать для построения прогностической модели, какие части выбранных данных включать или исключать, как взвешивать эти данные, какие методы использовать для анализа данных и т.д.

Однако поскольку рекомендация генерируется автоматизированной системой с использованием некоего механистического процесса и представляется в строгой вычислительной форме, результат может иметь вводящее в заблуждение впечатление почти математической объективности в рамках закона. Из-за этой ауры механистической объективности судьи и другие должностные лица могут уделять больше внимания компьютерным рекомендациям, в отличие от сопоставимых человеческих оценок. Эта человеческая склонность необоснованно приписывать технологическому процессу принятия решений ценностный нейтралитет (по сравнению с людьми, находящимися в аналогичном положении) и полагаться на кажущуюся точность математического анализа и анализа, основанного на данных, должна быть тщательно исследована в контексте технологических систем, влияющих на юридическую оценку доказательств и суждений.

Однако следует учесть, что правовые нормы имеют долю неопределенности как в установлении вины, так и ее размеров.

Тот же Кодекс об административных правонарушениях Российской Федерации предоставляет возможность при определении обстоятельств правонарушения судье, органу власти и должностному лицу учитывать отягчающие и смягчающие факторы, что напрямую влияет в ряде случаев на вид административного наказания, его размер и длительность (Главы 3 и 4 КоАП РФ [23])

В этой связи одна из основных функций должностных лиц заключается в устранении этих неопределенностей при применении законов в конкретных обстоятельствах с учетом таких положений, как сама норма закона, общая практика ее применения, судебная практика, а также сама государственная политика. Общество часто не знает окончательного ответа на такую правовую неопределенность до тех пор, пока конкретное должностное лицо по правовым вопросам не вынесет обязательное, окончательное определение, предпочтя один набор возможных аргументов и интерпретаций другим.

При этом нужно понимать, что оцифровка этого процесса будет происходить ровно по таким же алгоритмам, включая предпочтения в «суждениях» и аргументации одной стороны другим подходам. При этом необходимо учитывать, что набор неявных знаний и признаков, на которые может обратить внимание должностное лицо как «человек», и прямо не закреплено действующим законодательством, процессуальным аспектом оценки доказательств и иными подзаконными актами.

На основании вышеизложенного предлагается проведение следующих мероприятий:

1. Введение дополнительных инструментов административного наказания для разработчиков систем ИИ, при несоблюдении ими принципов проектируемого соответствия законов ИИ, в виде дисквалификации и запрета на осуществление указанной деятельности.

2. Формирование и законодательное закрепление реестра технологий ИИ, в рамках которого пользователь может увидеть сферу применения ИИ, его разработчика, объем пользователей, техническую надежность (используемые математические и иные инструменты, факты и объем взлома), административную активность с точки зрения права (количество выявленных нарушений, судебное обжалование и т.д.).

3. При использовании ИИ для публичных целей надзора и контроля, необходимо обязательное соблюдение прозрачности алгоритмов ИИ (для разработчиков), сохранение процедуры оспаривания действий ИИ у должностного лица, введение обязательных дополнительных квалификационных требований в отношении образования и знаний у должностных лиц, рассматривающих указанные жалобы, запрет на использование зарубежных систем ИИ для публичных целей.

Библиография
1. Citron D. K. Technological due process //Wash. UL Rev. – 2007. – Т. 85. – С. 1249.
2. Roth A. Trial by machine //Geo. LJ. – 2015. – Т. 104. – С. 1245.
3. Stilgoe J., Guston D. Responsible research and innovation. – MIT Press, 2016.
4. Lessig L. Code 2.0: Code and other laws of cyberspace. – 2006.
5. Goldberg I., Wagner D. TAZ servers and the rewebber network. – 1998.
6. Villani C. et al. For a meaningful artificial intelligence: Towards a French and European strategy. Conseil national du numérique: [сайт]. — URL: https://www.aiforhumanity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf (дата обращения: 17.05.2023).
7. Maintaining American Leadership in Artificial Intelligence. A Presidential Document by the Executive Office of the President on 02/14/2019: [сайт]. — URL: https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence (дата обращения: 17.05.2023).
8. Germany AI Strategy Report: [сайт]. — URL: https://ai-watch.ec.europa.eu/countries/germany/germany-ai-strategy-report_en (дата обращения: 17.05.2023).
9. Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации»: [сайт]. — URL: https://www.garant.ru/products/ipo/prime/doc/72738946/ (дата обращения: 17.05.2023).
10. Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.: [сайт]. — URL: https://www.garant.ru/products/ipo/prime/doc/74460628/ (дата обращения: 17.05.2023).
11. Barocas S., Selbst A. D. Big data's disparate impact //California law review. – 2016. – С. 671-732.
12. Kroll J. A. et al. Accountable algorithms’(2017) //University of Pennsylvania Law Review. – Т. 165. – С. 633.
13. Citron D. K. Technological due process //Wash. UL Rev. – 2007. – Т. 85. – С. 1249.
14. Бахтеев Д. В. Риски и этико-правовые модели использования систем искусственного интеллекта //Юридические исследования. – 2019. – №. 11. – С. 1-11.
15. Карпов В. Э., Готовцев П. М., Ройзензон Г. В. К вопросу об этике и системах искусственного интеллекта //Философия и общество. – 2018. – №. 2 (87). – С. 84-105.
16. Минбалеев А. В. Проблемы регулирования искусственного интеллекта //Вестник южно-уральского государственного университета. серия: право. – 2018. – Т. 18. – №. 4. – С. 82-87.
17. Ястребов О. А., Аксенова М. А. Влияние искусственного интеллекта на административно-правовой режим противодействия легализации доходов, полученных преступным путем и финансированию терроризма: вопросы права //Правовая политика и правовая жизнь. – 2022. – №. 3. – С. 84-109.
18. Michigan’s MiDAS Unemployment System: Algorithm Alchemy Created Lead, Not Gold. : [сайт]. — URL: https://spectrum.ieee.org/michigans-midas-unemployment-system-algorithm-alchemy-that-created-lead-not-gold#toggle-gdpr (дата обращения: 17.05.2023).
19. SyRI legislation in breach of European Convention on Human Rights: [сайт]. — URL: https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Rechtbanken/Rechtbank-Den-Haag/Nieuws/Paginas/SyRI-legislation-in-breach-of-European-Convention-on-Human-Rights.aspx (дата обращения: 17.05.2023).
20. District Court of the Hague, 6 March 2020, ECLI:NL:RBDHA:2020:865: [сайт]. — URL: uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:1878 (дата обращения: 17.05.2023).
21.   Арбитражный процессуальный кодекс Российской Федерации от 24 июля 2002 г. №95-ФЗ // Собрание законодательства Российской Федерации от 29 июля 2002 г. №30 ст. 3012.
22. State v. Loomis. Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing.: [сайт]. — URL: https://harvardlawreview.org/print/vol-130/state-v-loomis/ (дата обращения: 17.05.2023).
23.  "Кодекс Российской Федерации об административных правонарушениях" от 30.12.2001 N 195-ФЗ // "Собрание законодательства РФ", 07.01.2002, N 1 (ч. 1), ст. 1
References
1. Citron, D. K. (2007). Technological due process. Wash. UL Rev., 85, 1249.
2. Roth, A. (2015). Trial by machine. Geo. LJ, 104, 1245.
3. Stilgoe, J., & Guston, D. (2016). Responsible research and innovation. MIT Press.
4. Lessig, L. (2006). Code 2.0: Code and other laws of cyberspace.
5. Goldberg, I., & Wagner, D. (1998). TAZ servers and the rewebber network.
6. Villani C. et al. For a meaningful artificial intelligence: Towards a French and European strategy. Conseil national du numérique: [Website]. — URL: https://www.aiforhumanity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf (Accessed: 17.05.2023).
7. Maintaining American Leadership in Artificial Intelligence. A Presidential Document by the Executive Office of the President on 02/14/2019: [Website]. — URL: https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence (Accessed: 17.05.2023).
8. Germany AI Strategy Report: [Website]. — URL: https://ai-watch.ec.europa.eu/countries/germany/germany-ai-strategy-report_en (Accessed: 17.05.2023).
9. Decree of the President of the Russian Federation of October 10, 2019 № 490 "On the development of artificial intelligence in the Russian Federation": [Website]. — URL: https://www.garant.ru/products/ipo/prime/doc/72738946/ (Accessed: 17.05.2023).
10. Decree of the Government of the Russian Federation of August 19, 2020 No. 2129-r On approval of the Concept for the development of regulation of relations in the field of artificial intelligence technologies and robotics for the period up to 2024: [Website]. — URL: https://www.garant.ru/products/ipo/prime/doc/74460628/ (Accessed: 17.05.2023).
11. Barocas, S., & Selbst, A. D. (2016). Big data's disparate impact. California law review, 671-732.
12. Kroll, J. A. (2015). Accountable algorithms (Doctoral dissertation, Princeton University).
13. Citron, D. K. (2007). Technological due process. Wash. UL Rev., 85, 1249.
14. Bakhteev, D. V. (2019).. Risks and ethical and legal models of using artificial intelligence systems. Legal Research, (11), 1-11.
15. Karpov, V. E., Gotovtsev, P. M., & Roizenzon, G. V. (2018). On the issue of ethics and artificial intelligence systems. Filosofiia i obshchestvo, 2, 84-105..
16. Minbaleev А. V. (2018). PROBLEMS OF REGULATING ARTIFICIAL INTELLIGENCE. Bulletin of the South Ural State University Ser. Law, 18, 4, 82-87.
17. Yastrebov О. А., Aksenova М. А.(2022). THE LAW ISSUES OF IMPACT OF ARTIFICIAL INTELLIGENCE ON THE ADMINISTRATIVE REGIME FOR COMBATING MONEY LAUNDERING AND TERRORISM FINANCING. Legal policy and legal life, 3, 84-109.
18. Michigan’s MiDAS Unemployment System: Algorithm Alchemy Created Lead, Not Gold. : [Website]. — URL: https://spectrum.ieee.org/michigans-midas-unemployment-system-algorithm-alchemy-that-created-lead-not-gold#toggle-gdpr (Accessed: 17.05.2023).
19. SyRI legislation in breach of European Convention on Human Rights: [Website]. — URL: https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Rechtbanken/Rechtbank-Den-Haag/Nieuws/Paginas/SyRI-legislation-in-breach-of-European-Convention-on-Human-Rights.aspx (Accessed: 17.05.2023).
20. District Court of the Hague, 6 March 2020, ECLI:NL:RBDHA:2020:865: [Website]. — URL: uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:1878 (Accessed: 17.05.2023).
21.  Arbitration Procedure Code of the Russian Federation dated July 24, 2002 No. 95-FZ // Collection of Legislation of the Russian Federation dated July 29, 2002 No. 30 Art. 3012.
22. State v. Loomis. Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing.: [Website]. — URL: https://harvardlawreview.org/print/vol-130/state-v-loomis/ (Accessed: 17.05.2023).
23.  "Code of the Russian Federation on Administrative Offenses" dated December 30, 2001 N 195-FZ // "Collected Legislation of the Russian Federation", 01/07/2002, N 1 (part 1), art. 1

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предмет исследования. В рецензируемой статье "Анализ феномена технического дизайна для целей публичного регулирования искусственного интеллекта: опыт зарубежных стран и перспективы России" в качестве предмета исследования выступают правовые нормы, регулирующие общественные отношения в сфере создания и использования искусственного интеллекта. Автор обращается к отечественному праву, а также анализирует право зарубежных стран в области создания и использования искусственного интеллекта.
Методология исследования. Основной метод исследования - это сравнительный анализ. Кроме того, автором применялись и иные современные методы научного познания: исторический, формально-логический, юридико-технический, формально-догматический, сравнительного правоведения и др. Также автором статьи применялись такие научные способы и приемы, как дедукция, моделирование, систематизация, обобщение и др.
Актуальность исследования. Глобальная цифровизация всех сфер жизнедеятельности людей ставит вопросы о необходимости соответствующего правового регулирования новых видов общественных отношений, к которым можно отнести создание и использование искусственного интеллекта человеком. Данное исследование не только посвящено выявлению проблем и пробелов в праве при регулировании общественных отношений с применением искусственного интеллекта, но и содержит конкретные предложения по их разрешению, которые заслуживают внимания законодателя и правоприменителя (например, "введение дополнительных инструментов административного наказания для разработчиков систем ИИ, при несоблюдении ими принципов проектируемого соответствия законов ИИ, в виде дисквалификации и запрета на осуществление указанной деятельности" или "при использовании ИИ для публичных целей надзора и контроля, необходимо обязательное соблюдение прозрачности алгоритмов ИИ (для разработчиков), сохранение процедуры оспаривания действий ИИ у должностного лица, введение обязательных дополнительных квалификационных требований в отношении образования и знаний у должностных лиц, рассматривающих указанные жалобы, запрет на использование зарубежных систем ИИ для публичных целей".
Научная новизна. Представляется, что данная статья отличается научной новизной, хотя обращение к вопросу о правовом регулировании применения искусственного интеллекта в публичных целях не является абсолютно новым для российской юридической науки. Однако аспект, выбранный автором - анализ феномена технического дизайна для целей публичного регулирования искусственного интеллекта, основанный на сравнительном правоведении, имеет элементы научной новизны.
Стиль, структура, содержание. В целом стиль написания работы можно считать научным. Вместе с тем, в качестве замечания следует отметить, что автор использует применение аббревиатур, известных узкому кругу читателей (например, ИИ, ИТ), сокращает слова (например, кол-во), отходит от официальных названий документов и должностей (например, кодекс (правильнее Кодекс) об административных правонарушениях, Указ Президента России (правильнее Российской Федерации). Совсем неясно, кто такие "юридические должностные лица". В предложениях отмечается повтор однокоренных слов, например, в предложении "Однако следует учесть, что изначально правовые нормы имеют определенную долю неопределенности как в определении вины, так и ее размеров". Такие предложения подлежат перефразированию. Статья структурирована (введение, основная часть и заключение). На взгляд рецензента, по содержанию раскрыта тема: "Создание и применение искусственного интеллекта в публичных целях: сравнительно-правовой анализ". Все-таки, следовало бы объяснить "феномен технического дизайна", в чем он заключается. Термин "феномен" применен автором в названии статьи, а в тексте не раскрывается совсем. Автор использует как тождественные категории "технический дизайн" и "технологический дизайн". Допустимо ли?
Библиография. Автором изучено достаточное количество источников. Однако ссылки на источники оформлены с нарушением требований библиографического ГОСТа.
Апелляция к оппонентам. В статье представлены точки зрения других ученых по вопросам создания и применения искусственного интеллекта, все обращения к оппонентам корректные. Однако при ссылке на ФИО автора мнения (точки зрения) в тексте статьи нарушен порядок написания (следует указывать сначала инициалы, затем фамилию).
Выводы, интерес читательской аудитории. Статья "Анализ феномена технического дизайна для целей публичного регулирования искусственного интеллекта: опыт зарубежных стран и перспективы России" может быть рекомендована к опубликованию при условии корректировки ее названия и доработки содержания, устранения всех отмеченных замечаний. Статья написана на актуальную тему. Статья может представлять интерес для специалистов в области информационного права и цифрового права.

Результаты процедуры повторного рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предметом исследования в представленной на рецензирование статье, как это следует из ее наименования, является создание и применение искусственного интеллекта (ИИ) в публичных целях. Автором осуществляется сравнительно-правовой анализ данной проблемы. Как следствие, ученым вырабатываются рекомендации по применению ИИ в отечественной правоприменительной практике. Заявленные границы исследования полностью соблюдены автором.
Методология исследования в тексте статьи не раскрывается, но очевидно, что ученым использовались всеобщий диалектический, логический, формально-юридический и сравнительно-правовой методы исследования.
Актуальность избранной автором темы исследования обоснована следующим образом: "Правительства разных стран все чаще используют технические и информационные системы в рамках правоприменительной практики. Например, представители власти используют компьютерные системы для вынесения приговоров обвиняемым, утверждения или отказа в предоставлении государственных пособий, прогнозирования мест совершения будущих преступлений и введения запрета на въезд через границу государства [1-2]. В каждом случае технология используется для принятия важных решений в отношении индивидуальных юридических прав или распределения государственных ресурсов". Дополнительно ученому необходимо перечислить фамилии ведущих специалистов, занимавшихся исследованием поднимаемых в статье проблем, а также раскрыть степень их изученности. Частично об этом говорится в ряде положений основной части работы.
В чем проявляется научная новизна исследования, в статье прямо не говорится. Фактически она проявляется во введении в оборот отечественной юридической науки данных о фактах, представляющих непосредственный интерес для российского законодателя и правоприменителей, а также в разработанных автором рекомендациях по совершенствованию применения систем ИИ на практике. Таким образом, статья заслуживает внимания читательской аудитории и вносит определенный вклад в развитие отечественной юридической науки.
Научный стиль исследования выдержан автором в полной мере.
Структура работы вполне логична. Во вводной части статьи ученый обосновывает актуальность избранной им темы исследования. В основной части работы автор анализирует особенности создания и применения систем ИИ во Франции, США, Германии и России, выявляет возникающие при этом проблемы, а также приводит примеры из практики, иллюстрирующие отдельные положения статьи. В заключительной части работы содержатся выводы по результатам проведенного исследования.
Содержание статьи полностью соответствует ее наименованию и не вызывает особых нареканий.
Библиография исследования представлена 23 источниками (нормативными правовыми актами, монографиями и научными статьями), в том числе на английском языке. С формальной и фактической точек зрения этого вполне достаточно. Характер и количество использованных при написании статьи источников позволили автору раскрыть тему исследования с необходимой глубиной и полнотой. Положения работы аргументированы в должной степени.
Апелляция к оппонентам имеется, как общая, так и частная (С. Villani и др.). Научная дискуссия ведется автором корректно.
Выводы по результатам проведенного исследования имеются, они четко структурированы, конкретны и заслуживают внимания читательской аудитории (ученый предлагает: "1. Введение дополнительных инструментов административного наказания для разработчиков систем ИИ, при несоблюдении ими принципов проектируемого соответствия законов ИИ, в виде дисквалификации и запрета на осуществление указанной деятельности. 2. Формирование и законодательное закрепление реестра технологий ИИ, в рамках которого пользователь может увидеть сферу применения ИИ, его разработчика, объем пользователей, техническую надежность (используемые математические и иные инструменты, факты и объем взлома), административную активность с точки зрения права (количество выявленных нарушений, судебное обжалование и т.д.). 3. При использовании ИИ для публичных целей надзора и контроля, необходимо обязательное соблюдение прозрачности алгоритмов ИИ (для разработчиков), сохранение процедуры оспаривания действий ИИ у должностного лица, введение обязательных дополнительных квалификационных требований в отношении образования и знаний у должностных лиц, рассматривающих указанные жалобы, запрет на использование зарубежных систем ИИ для публичных целей").
Статья нуждается в дополнительном вычитывании. В ней встречаются орфографические, пунктуационные, синтаксические ошибки.
Интерес читательской аудитории к представленной на рецензирование статье может быть проявлен прежде всего со стороны специалистов в сфере административного права и информационного права при условии ее небольшой доработки: раскрытии методологии исследования, дополнительном обосновании актуальности избранной темы работы, устранении нарушений в оформлении статьи.