Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

NB: Административное право и практика администрирования
Правильная ссылка на статью:

Публично-правовые аспекты технического регулирования искусственного интеллекта в России и мире

Атабеков Атабек Рустамович

кандидат экономических наук

доцент, кафедра административного и финансового права, Российский университет дружбы народов

117198, Россия, г. Москва, ул. Миклухо-Маклая, 6

Atabekov Atabek Rustamovich

PhD in Economics

Associate Professor of the Department of Administrative and Financial Law, Legal Institute, Peoples' Friendship University of Russia

117198, Russia, Moscow, Miklukho-Maklaya str., 6

atabekoff1@mail.ru
Другие публикации этого автора
 

 

DOI:

10.7256/2306-9945.2023.2.39938

EDN:

EFVTPO

Дата направления статьи в редакцию:

04-03-2023


Дата публикации:

11-03-2023


Аннотация: Предметом исследования выступают правоотношения публичных органов в области технического регулирования в отношении искусственного интеллекта. Объектом исследования выступают нормативные документы, рекомендации и иные документы, регламентирующие вопросы реализации автономности искусственного интеллекта для целей публичных правоотношений в России и зарубежных странах, а также академические публикации и аналитические отчеты по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая, диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования проблем обеспечения надлежащего качества технического регулирования искусственного интеллекта через призму действий органов по стандартизации и иных публичных органов власти.   В рамках указанной статьи проводится сравнительный анализ действующих подходов по осуществлению технического регулирования искусственного интеллекта в публично-правовом аспекте России и зарубежных стран. В рамках проведенного компаративного анализа выявлены базовые проблемы в области осуществления надлежащего технического и публичного регулирования искусственного интеллекта в мировой практике, рассмотрена отдельно практика технического регулирования в России, а также предложены возможные компенсирующие правовые мероприятия, обеспечивающие прозрачную и надлежащую практику осуществления технического регулирования искусственного интеллекта в сферу государственного управления в России. Рассмотренные типовые ситуации, действующая практика технического регулирования искусственного интеллекта, а также предложенные автором методы могут найти свое отражение в законодательной и правоприменительной практике профильных органов власти, отвечающих как за техническое регулирование, так и за вопросы обеспечения интеграции указанной технологии в сферу публичных правоотношений.


Ключевые слова:

искусственный интеллект, электронное лицо, сравнительно-правовое исследование BB, техническое регулирование ИИ, безопасный ИИ, публичное право, административное право, информационное право, правоприменительная практика, стандартизация

Abstract: Within the framework of this article, a comparative analysis of existing approaches to the implementation of technical regulation of artificial intelligence in the public law of Russia and foreign countries is carried out. As part of the comparative analysis, the basic problems in the field of proper technical and public regulation of artificial intelligence in the world practice are identified, the practice of technical regulation in Russia is considered separately, and possible compensatory legal measures are proposed to ensure transparent and proper practice of technical regulation of artificial intelligence in the field of public administration in Russia. The subject of the study is the legal relations of public authorities in the field of technical regulation in relation to artificial intelligence. The object of the study is the regulatory documents, recommendations and other documents regulating the implementation of the autonomy of artificial intelligence for the purposes of public legal relations in Russia and foreign countries, academic publications and analytical reports on the issues under study. The research methodology integrates a complex of modern philosophical, general scientific, special scientific methods of cognition, including dialectical, systemic, structural-functional, hermeneutical, comparative legal, formal legal (dogmatic), etc. Within the framework of this study, special emphasis is placed on the implementation of a comparative legal study of the problems of ensuring the proper quality of technical regulation of artificial intelligence through the prism of the actions of standardization bodies and other public authorities. The considered typical situations, the current practice of technical regulation of artificial intelligence, as well as the methods proposed by the author can be reflected in the legislative and law enforcement practice of relevant authorities responsible both for technical regulation and for ensuring the integration of this technology into the sphere of public legal relations.


Keywords:

artificial intelligence, electronic person, comparative legal research of AI, technical regulation of AI, safety AI, public law, administrative law, information law, law enforcement practice, standardization

Развитие технологического потенциала искусственного интеллекта является одной из значимых задач для как Российской Федерации [1-2], так и для международного сообщества [3].

При этом нельзя не отметить возникающие вопросы позиционирования искусственного интеллекта (ИИ) в контексте технического регулирования и позиции как национальных институтов в области стандартизации, так и публичных органов власти в указанной сфере.

Базовая и фундаментальная работа в области выработки единых подходов по стандартизации ИИ проводится на уровне международных органов по стандартизации - ИСО/МЭК (ТК1/СК42) и их различными совместными подкомитетами. В рамках функционирования указанного ТК уже опубликован широкий перечень стандартов в области ИИ [4-6].

На данный момент применения ИИ для целей публичных органов власти ISO рекомендует руководствоваться ISO/IEC 38507:2022, в котором прописаны базовые принципы, а также отмечаются потенциальные негативные последствия от использования ИИ:

1. Риск монополизации рынка за счет отраслевой специализации ИИ.

2. Предвзятость в суждениях при обработке данных ИИ без тщательной проверки.

3. Риск утраты контроля со стороны человека с учетом скорости обучения ИИ.

4. Дискриминация и потенциальный вред фундаментальных прав работников, которых может заместить ИИ.

5. Репутационные издержки в случае отсутствия контроля за ИИ.

На уровне различных государств создаются профильные органы власти, разрабатываются соответствующие стратегические документы [7].

Так, в Национальном стратегическом плане США определена необходимость увеличения доступности испытательных стендов ИИ и последующую работу по увеличению показателей связанных с разработкой стандартов и вовлеченности профессионального сообщества [8]. В последующие года, Американский национальный институт был представлен Секретарем в совместном техническом комитете 1/субкомитет 42 сформированной ISO и IEC [9]. Кроме того, понимая военный потенциал ИИ, Комиссия национальной безопасности США по искусственному интеллекту (NSCAI), акцентировала внимание национальных органов принимающих участие в разработке стандартов, необходимость систематически повышать достоверность результатов и функционирующих моделей ИИ [10].

В Китае соответствующую работу организовывает и координирует Министерство промышленности и информационных технологий которое опубликовало в 2018 году Белую книгу по стандартизации ИИ [11]. При этом инициативы Китая на сближение подходов в области стандартизации [12-13], для облачных вычислений, промышленного программного обеспечения не отменяет принципов суверенного регулирования ИИ. В рамках национальной стратегии стандартизации под названием «Китайские стандарты 2035», зафиксировано, что национальные стандарты будут отличаться от международных стандартов, в целях развития внутренней промышленности [14].

При этом, деятельность органов в области стандартизации распределена между 5 организациями [15]:

1. Национальный технический комитет по стандартизации информационных технологий (SAC/TC 28) является базовым органом, который занимается терминологическим аппаратом в области ИИ и смежных областях, связанных с взаимодействием ИИ и человека.

2. Китайский национальный технический комитет по стандартизации систем автоматизации и интеграции специализируется на стандартизации деятельности промышленных роботов.

3. Национальный технический комитет по стандартизации аудио, видео и мультимедиа специализируется на стандартах для умного дома.

4. Национальный технический комитет по стандартизации информационной безопасности специализируется на стандартах в области безопасности для умных городов и промышленного производства.

5. Национальный технический комитет по интеллектуальным транспортным системам специализируется на стандартах в области интеллектуального транспорта.

В Белой книге по стандартизации Китая также отмечены фундаментальные проблемы в области стандартизации и сертификации ИИ:

1. Неоднородность технического развития ИИ на уровне различных стран порождает различную интерпретацию ИИ на национальном и наднациональном уровнях.

2. Многокомпонентность и трансграничная универсальность технологии может порождать избыточный или дублирующий контур стандартов.

3. Стандартизация как способ лоббирования своих интересов международных корпораций и ассоциаций.

4. Неограниченный круг пользователей продукции, что ведет к сложностям в координации процесса стандартизации.

5. Вопросы в области безопасности и этики являются самой сложной категорией в области стандартизации, которые замедляют работу по основному блоку стандартизации ИИ.

В Европейском союзе основополагающие органы по стандартизации - Европейский комитет по стандартизации и Европейский комитет по электротехнической стандартизации (CENELEC) и Европейский институт стандартов в области телекоммуникаций (ETSI). В 2019 году CENELEC создал Оперативную группу по ИИ [16], после чего в 2020 году была опубликована дорожная карта по стандартизации ИИ [17]. ETSI также создал различные фокус-группы по искусственному интеллекту [18].

Нельзя также не отметить инициативу законодательную инициативу ЕС в отношении искусственного интеллекта, носящего риск ориентированный подход и закладывающий свои фундаментальные основы в том числе для целей стандартизации и регулирования со стороны органов власти (Регламент) [19].

Указанный регламент определяет горизонтального подход в отношении ИИ (в отличие от других законодательных актов ЕС о безопасности продукции), что говорит о комплексном рассмотрении вопроса регламентации ИИ, а также минимизации рисков на уровне трансграничного перемещения добровольных национальных и международных стандартов.

При этом саму продукцию ИИ Регламент градирует в зависимости от степени риска для общества, со своими последующими ограничениями и обязательствами (ст.5,8,52 и 69 Регламента) в области обеспечения безопасности и надежности технологии.

При этом Решение № 768/2008/EC Европейского парламента и Совета от 9 июля 2008 г. об общих рамках для сбыта продукции [20], содержит положения о том, что конкретизация локальных стандартов в области ИИ является целевой задачей институтов в области стандартизации (CENELEC, ETSI и т.д.). При этом оценка соответствия продукции является обязанностью только производителя, что также находит свое отражение применительно к ИИ (ст.16,17,51, 60 86 Регламента). Кроме того, статьей 71 Регламента закреплен размер оборотного административного штрафа в размере 2%, 4% или 6% от годового оборота нарушителя.

Риск-ориентированный подход, предложенный ЕК в отношении ИИ, носит интересный подход в области стандартизации, однако сохраняет за собой вопросы в области верификации ИИ производителем продукции, а не третьими лицами, а указанные институты, являются не публичными образованиями, а НКО.

В России стандартизация деятельности возложена на Росстандарт, которым было подготовлено совместно с Минэкономразвития программа по стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021-2024 годы [21]. Программа содержит более 70 отраслевых метрологических стандартов.

При этом интересным феноменом является как разночтение на уровне документов ГОСТ Р 43.0.8-2017 и ГОСТ Р 59277-2020 в отношении определения ИИ, так и в части практической реализации стандартизации в области ИИ согласно указанной выше программе. Согласно указанной программе, до 2024 года планируется 44 межотраслевых стандарта в области ИИ (11 в 2022, 21 в 2023 году, 12 в 2024 году), 58 отраслевых метрологических стандарта (21 в 2022 году,19 в 2023 году, 18 в 2024 году), 91 сопровождаемый международный документ (стандарт) по ИИ (20 в 2021 году, 22 в 2022 году,24 в 2023 году, 25 в 2024 году). Отраслевая специализация указанных документов охватывает почти все сферы деятельности человека.

Росстандарт, руководствуясь статьей 9 Федерального закона от 29.06.2015 N 162-ФЗ «О стандартизации в Российской Федерации» (Закон) реализует государственную политику в сфере стандартизации, определяет порядок достижения единой позиции разных сторон при разработке национальных стандартов, порядок их экспертизы, организует саму разработку стандартов и т.д. При этом согласно п.25 ст.9 Закона предусмотрена возможность принятии решения о создании и ликвидации технических комитетов по стандартизации, который подразумевает создание на добровольной основе заинтересованные юридические лица, а также органы власти принимают участие для разработки, экспертизы документов в области стандартизации в закрепленных ею областях (ст. 11 Закона).

В области ИИ таковым выступает ТК 164 «Искусственный интеллект» [22]. При этом, следует отметить, что разработчиком системных документов в области ИИ занимаются как научные организации (ГОСТ Р 59898-2021, ГОСТ Р 58776-2019 и т.д.), так и коммерческие компании с высокой степенью технической вовлеченности (ГОСТ Р 59391-2021), а также компании, чья компетенция вызывает потенциальные вопросы (ГОСТ Р 70249-2022, ГОСТ Р 59385-2021).

По мнению автора, необходимо отметить, что базовой общной проблемой вопросов стандартизации является то, что прямо или опосредовано на область технического регулирования ИИ влияют негосударственные организации с участием заинтересованных компаний, которые закладывают свои конкурентные преимущества и в последствии ослабляют контроль со стороны государства, в т.ч. в отношении такой технологии как ИИ, которая имеет целый спектр непредсказуемых последствий для общества [23-27].

Второй проблемой является потенциальное дублирование и расхождение позиций в отношении регулирования ИИ с учётом его многокомпонентной базы, самообучающей системы и возможности ее развертывания на любой выборке данных (военной, медицинской, банковской, государственной и т.д.).

Третьей принципиальной проблемой является вопрос компетенций в области разработки стандартов ИИ для нужд государственного сегмента, который остается в уязвимом положении при издании стандарта частноправовыми организациями.

Указанный контур проблем, по мнению автора, может быть решен введением ряда инициатив на уровне органов власти, а именно путем формирования административных барьеров, в целях обеспечения условий разработки стандартов для нужд публичных органов исключительно государственными научными учреждениями, а также формирование законодательной инициативы по дополнительной верификаций предлагаемых ТК 164 стандартов профильным органом власти, ответственным за разработку и регулирование ИИ, как в целях минимизации трансграничных рисков избыточного регулирования ИИ, так и дублирования положений регулирования представленных в стандартах.

Библиография
[1. Президент принял участие в основной дискуссии международной конференции по искусственному интеллекту: [сайт]. — URL: http://kremlin.ru/events/president/news/69927 (дата обращения: 27.02.2023). ]
[2. Заседание коллегии Министерства обороны: [сайт]. — URL: http://kremlin.ru/events/president/news/70159 (дата обращения: 27.02.2023). ]
[3. Раздел ЮНЕСКО посвященной актуальной проблематике искусственного интеллекта: [сайт]. — URL: https://en.unesco.org/artificial-intelligence (дата обращения: 27.02.2023). ]
[4. ISO/IEC TR 24029-1:2021 Artificial Intelligence (AI) — Assessment of the robustness of neural networks — Part 1: Overview: [сайт]. — URL:https://www.iso.org/standard/77609.html (дата обращения: 27.02.2023). ]
[5. ISO/IEC 22989:2022 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology: [сайт]. — URL: https://www.iso.org/standard/74296.html. (дата обращения: 27.02.2023). ]
[6. ISO/IEC 38507:2022 Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations: [сайт]. — URL: https://www.iso.org/standard/56641.html (дата обращения: 27.02.2023). ]
[7. Обсерватория ИИ ОЭСР: [сайт]. — URL: https://oecd.ai/(дата обращения: 27.02.2023). ]
[8. Networking and Information Technology Research and Development Subcommittee. The National Artificial Intelligence Research and Development Strategic Plan. – 2016. ]
[9. ISO/IEC JTC 1/SC 42 Artificial intelligence: [сайт]. — URL:https://www.iso.org/ru/committee/6794475.html (дата обращения: 27.02.2023). ]
[10. Final Report National Security Commission on Artificial Intelligence: [сайт]. — URL: https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf (дата обращения: 27.02.2023). ]
[11. Excerpts from China’s ‘White Paper on Artificial Intelligence Standardization.’ URL: [сайт]. — URL: http://www.sgic.gov.cn/upload/f1ca3511-05f2-43a0-8235-eeb0934db8c7/20180122/5371516606048992.pdf (дата обращения: 27.02.2023). ]
[12. Memorandum of Understanding Between SGCC and IEEE: [сайт]. — URL: https://www.ieee-pes.org/2018-mou-sgcc-ieee (дата обращения: 27.02.2023). ]
[13. Cooperation Agreement between CEN and CENELEC and the Standardization Administration of China: [сайт]. — URL: https://www.cencenelec.eu/media/CEN-CENELEC/European%20Standardization/Documents/IC/Cooperation%20Agreements/cen-clc-sac_cooperationagreement_en.pdf (дата обращения: 27.02.2023). ]
[14. De La Bruyère E., Picarsic N. China Standards 2035: Beijing’s Platform Geopolitics and “Standardization Work in 2020.” //Horizon Advisory China Standards Series. – 2020. ]
[15. Artificial Intelligence Standardization White Paper (2018 Edition): [сайт]. — URL: https://cset.georgetown.edu/publication/artificial-intelligence-standardization-white-paper/ (дата обращения: 27.02.2023). ]
[16. CEN и CENELEC создали новую фокус-группу по искусственному интеллекту: [сайт]. — URL:https://www.cencenelec.eu/areas-of-work/cen-cenelec-topics/artificial-intelligence/ (дата обращения: 01.03.2022). ]
[17. Отчет CEN-CENELEC, «Дорожная карта по искусственному интеллекту»: [сайт]. — URL:https://www.standict.eu/sites/default/files/2021-03/CEN-CLC_FGR_RoadMapAI.pdf (дата обращения: 01.03.2022). ]
[18. Группа промышленных спецификаций ETSI раздел вопросы безопасности ИИ: [сайт]. — URL:https://www.etsi.org/committee/1640-sai (дата обращения: 01.03.2022). ]
[19. COM(2021) 206 final 2021/0106(COD) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS: [сайт]. — URL:https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0206&from=EN (дата обращения: 01.03.2022). ]
[20. Решение ЕС № 768/2008/ЕС – UNECE : [сайт]. — URL: https://unece.org/fileadmin/DAM/trade/wp6/SectoralInitiatives/MARS/Slovakia_Oct10/Decision_768_2008_EC_ru.pdf (дата обращения: 01.03.2022). ]
[21. ПЕРСПЕКТИВНАЯ ПРОГРАММА СТАНДАРТИЗАЦИИ по приоритетному направлению «Искусственный интеллект» на период 2021–2024 годы (утвержденная Минэкономразвития России и Росстандартом России): [сайт]. — URL: https://www.economy.gov.ru/material/file/28a4b183b4aee34051e85ddb3da87625/20201222.pdf (дата обращения: 01.03.2022). ]
[22. Сайт ТК 164: [сайт]. — URL:http://tc164.ru/page28499750.html (дата обращения 01.03.2022) ]
[23. Vinuesa R. et al. The role of artificial intelligence in achieving the Sustainable Development Goals //Nature communications. – 2020. – Т. 11. – №. 1. – С. 233. ]
[24. Mihalis K. Ten technologies to fight coronavirus //Eur. Parliam. Res. Serv. – 2020. – С. 1-20. ]
[25. Raso F. A. et al. Artificial intelligence & human rights: Opportunities & risks //Berkman Klein Center Research Publication. – 2018. – №. 2018–6. ]
[26. Гусев А. В. и др. Нормативно-правовое регулирование программного обеспечения для здравоохранения, созданного с применением технологий искусственного интеллекта, в Российской Федерации //Медицинские технологии. Оценка и выбор. – 2021. – №. 1 (43). – С. 36–45. ]
[27. Харитонова Ю. С., Савина В. С. Технология искусственного интеллекта и право: вызовы современности //Вестник Пермского университета. Юридические науки. – 2020. – №. 49. – С. 524–549. ]
References
[1. The President took part in the main discussion of the international conference on artificial intelligence: [website]. — URL: http://kremlin.ru/events/president/news/69927 (accessed: 27.02.2023). ]
[2. Meeting of the Board of the Ministry of Defense(: [website]. — URL: http://kremlin.ru/events/president/news/70159 (accessed: 27.02.2023). ]
[3. UNESCO section dedicated to the actual problems of artificial intelligence: [website]. — URL: https://en.unesco.org/artificial-intelligence (accessed: 27.02.2023). ]
[4. ISO/IEC TR 24029-1:2021 Artificial Intelligence (AI) — Assessment of the robustness of neural networks — Part 1: Overview: [website]. — URL:https://www.iso.org/standard/77609.html (accessed: 27.02.2023). ]
[5. ISO/IEC 22989:2022 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology: [website]. — URL: https://www.iso.org/standard/74296.html. (accessed: 27.02.2023). ]
[6. ISO/IEC 38507:2022 Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations: [website]. — URL: https://www.iso.org/standard/56641.html (accessed: 27.02.2023). ]
[7. OECD AI Observatory: [website]. — URL: https://oecd.ai/(accessed: 27.02.2023). ]
[8. Networking and Information Technology Research and Development Subcommittee. The National Artificial Intelligence Research and Development Strategic Plan. – 2016. ]
[9. ISO/IEC JTC 1/SC 42 Artificial intelligence: [website]. — URL:https://www.iso.org/ru/committee/6794475.html (accessed: 27.02.2023). ]
[10. Final Report National Security Commission on Artificial Intelligence: [website]. — URL: https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf (accessed: 27.02.2023). ]
[11. Excerpts from China’s ‘White Paper on Artificial Intelligence Standardization.’ URL: [website]. — URL: http://www.sgic.gov.cn/upload/f1ca3511-05f2-43a0-8235-eeb0934db8c7/20180122/5371516606048992.pdf (accessed: 27.02.2023). ]
[12. Memorandum of Understanding Between SGCC and IEEE: [website]. — URL: https://www.ieee-pes.org/2018-mou-sgcc-ieee (accessed: 27.02.2023). ]
[13. Cooperation Agreement between CEN and CENELEC and the Standardization Administration of China: [website]. — URL: https://www.cencenelec.eu/media/CEN-CENELEC/European%20Standardization/Documents/IC/Cooperation%20Agreements/cen-clc-sac_cooperationagreement_en.pdf (accessed: 27.02.2023). ]
[14. De La Bruyère E., Picarsic N. China Standards 2035: Beijing’s Platform Geopolitics and “Standardization Work in 2020.” //Horizon Advisory China Standards Series. – 2020. ]
[15. Artificial Intelligence Standardization White Paper (2018 Edition): [website]. — URL: https://cset.georgetown.edu/publication/artificial-intelligence-standardization-white-paper/ (accessed: 27.02.2023). ]
[16. CEN and CENELEC launch new AI focus group : [website]. — URL:https://www.cencenelec.eu/areas-of-work/cen-cenelec-topics/artificial-intelligence/ (accessed: 01.03.2022). ]
[17. CEN-CENELEC Focus Group Report: Road Map on Artificial Intelligence: [website]. — URL:https://www.standict.eu/sites/default/files/2021-03/CEN-CLC_FGR_RoadMapAI.pdf (accessed: 01.03.2022). ]
[18. Industry specification group (ISG) securing artificial intelligence (SAI): [website]. — URL:https://www.etsi.org/committee/1640-sai (accessed: 01.03.2022). ]
[19. COM(2021) 206 final 2021/0106(COD) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS: [website]. — URL:https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0206&from=EN (accessed: 01.03.2022). ]
[20. EU Decision №768/2008/EC – UNECE : [website]. — URL: https://unece.org/fileadmin/DAM/trade/wp6/SectoralInitiatives/MARS/Slovakia_Oct10/Decision_768_2008_EC_ru.pdf (accessed: 01.03.2022). ]
[21. PERSPECTIVE STANDARDIZATION PROGRAM in the priority area "Artificial Intelligence" for the period 2021-2024 (approved by the Ministry of Economic Development of Russia and Rosstandart of Russia): [website]. — URL: https://www.economy.gov.ru/material/file/28a4b183b4aee34051e85ddb3da87625/20201222.pdf (accessed: 01.03.2022). ]
[22. Official page TC 164: [website]. — URL:http://tc164.ru/page28499750.html (accessed 01.03.2022) ]
[23. Vinuesa R. et al. The role of artificial intelligence in achieving the Sustainable Development Goals //Nature communications. – 2020. – Т. 11. – №. 1. – С. 233. ]
[24. Mihalis K. Ten technologies to fight coronavirus //Eur. Parliam. Res. Serv. – 2020. – С. 1-20. ]
[25. Raso F. A. et al. Artificial intelligence & human rights: Opportunities & risks //Berkman Klein Center Research Publication. – 2018. – №. 2018–6. ]
[26. Gusev A.V. et al. Legal regulation of artificial intelligence software in healthcare in the Russian Federation.// Medical Technologies. Assessment and Choice – 2021. – №. 1 (43). – pp. 36–45. (In Russ.) ]
[27. Kharitonova Y. S., Savina V. S. Tekhonologiya iskusstvennogo intellekta i pravo: vyzovy sovremennosti [Artificial Intelligence Technology and Law: Challenges of Our Time].// Vestnik Permskogo universiteta. Juridicheskie nauki – Perm University Herald. Juridical Sciences. 2020.-Issue 49.-Pp. 524–549. (In Russ.) ]

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

РЕЦЕНЗИЯ на статью на тему «Публично-правовые аспекты технического регулирования искусственного интеллекта в России и мире».
Предмет исследования. Предложенная на рецензирование статья посвящена публично-правовым аспектам «…технического регулирования искусственного интеллекта в России и мире». Автором выбран особый предмет исследования: предложенные вопросы исследуются с точки зрения международного, административного и конституционного права России и других государств, при этом автором отмечено, что «На уровне различных государств создаются профильные органы власти, разрабатываются соответствующие стратегические документы». Изучаются НПА, стандарты в области ИИ различных государств и международные, имеющие отношение к цели исследования. Также изучается и обобщается определенный объем российской и зарубежной научной литературы по заявленной проблематике, анализ и дискуссия с данными авторами-оппонентами присутствует. При этом автор отмечает: «Решение № 768/2008/EC Европейского парламента и Совета от 9 июля 2008 г. …, содержит положения о том, что конкретизация локальных стандартов в области ИИ является целевой задачей институтов в области стандартизации (CENELEC, ETSI и т.д.). При этом оценка соответствия продукции является обязанностью только производителя, что также находит свое отражение применительно к ИИ (ст.16,17,51, 60 86 Регламента). Кроме того, статьей 71 Регламента закреплен размер оборотного административного штрафа в размере 2%, 4% или 6% от годового оборота нарушителя».
Методология исследования. Цель исследования определена названием и содержанием работы: «В России стандартизация деятельности возложена на Росстандарт, которым было подготовлено совместно с Минэкономразвития программа по стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021-2024 годы », «Риск-ориентированный подход, предложенный ЕК в отношении ИИ, носит интересный подход в области стандартизации, однако сохраняет за собой вопросы в области верификации ИИ производителем продукции, а не третьими лицами, а указанные институты, являются не публичными образованиями, а НКО». Они могут быть обозначены в качестве рассмотрения и разрешения отдельных проблемных аспектов, связанных с вышеназванными вопросами и использованием определенного опыта. Исходя из поставленных цели и задач, автором выбрана определенная методологическая основа исследования. Автором используется совокупность частнонаучных, специально-юридических методов познания. В частности, методы анализа и синтеза позволили обобщить подходы к предложенной тематике и повлияли на выводы автора. Наибольшую роль сыграли специально-юридические методы. В частности, автором применялись формально-юридический и сравнительно-правовой методы, которые позволили провести анализ и осуществить толкование норм актов международного, российского и зарубежного законодательства и сопоставить различные документы. В частности, делаются такие выводы: «При этом интересным феноменом является как разночтение на уровне документов ГОСТ Р 43.0.8-2017 и ГОСТ Р 59277-2020 в отношении определения ИИ, так и в части практической реализации стандартизации в области ИИ согласно указанной выше программе» и др. Таким образом, выбранная автором методология в полной мере адекватна цели статьи, позволяет изучить многие аспекты темы.
Актуальность заявленной проблематики не вызывает сомнений. Данная тема является важной в мире и в России, с правовой точки зрения предлагаемая автором работа может считаться актуальной, а именно он отмечает «…нельзя не отметить возникающие вопросы позиционирования искусственного интеллекта (ИИ) в контексте технического регулирования и позиции как национальных институтов в области стандартизации, так и публичных органов власти в указанной сфере». И на самом деле здесь должен следовать анализ работ оппонентов, и он следует и автор показывает умение владеть материалом. Тем самым, научные изыскания в предложенной области стоит только приветствовать.
Научная новизна. Научная новизна предложенной статьи не вызывает сомнения. Она выражается в конкретных научных выводах автора. Среди них, например, такой: «…проблемой является потенциальное дублирование и расхождение позиций в отношении регулирования ИИ с учётом его многокомпонентной базы, самообучающей системы и возможности ее развертывания на любой выборке данных (военной, медицинской, банковской, государственной и т.д.)». Как видно, указанный и иные «теоретические» выводы могут быть использованы в дальнейших исследованиях. Таким образом, материалы статьи в представленном виде могут иметь интерес для научного сообщества.
Стиль, структура, содержание. Тематика статьи соответствует специализации журнала «Административное право и практика администрирования», так как посвящена публично-правовым аспектам «…технического регулирования искусственного интеллекта в России и мире». В статье присутствует аналитика по научным работам оппонентов, поэтому автор отмечает, что уже ставился вопрос, близкий к данной теме и автор использует их материалы, дискутирует с оппонентами. Содержание статьи соответствует названию, так как автор рассмотрел заявленные проблемы, достиг цели своего исследования. Качество представления исследования и его результатов следует признать доработанным. Из текста статьи прямо следуют предмет, задачи, методология, результаты исследования, научная новизна. Оформление работы соответствует требованиям, предъявляемым к подобного рода работам. Существенные нарушения данных требований не обнаружены, кроме описок «Указанный регламент определяет горизонтального подход», «не отметить инициативу законодательную инициативу ЕС» и др.
Библиография достаточно полная, содержит публикации, НПА, к которым автор обращается. Это позволяет автору правильно определить проблемы и поставить их на обсуждение. Следует высоко оценить качество представленной и использованной литературы. Присутствие научной литературы показало обоснованность выводов автора и повлияло на выводы автора. Труды приведенных авторов соответствуют теме исследования, обладают признаком достаточности, способствуют раскрытию многих аспектов темы.
Апелляция к оппонентам. Автор провел серьезный анализ текущего состояния исследуемой проблемы. Автор описывает разные точки зрения оппонентов на проблему, аргументирует более правильную по его мнению позицию, опираясь на работы оппонентов, предлагает варианты решения проблем.
Выводы, интерес читательской аудитории. Выводы являются логичными, конкретными «Указанный контур проблем, по мнению автора, может быть решен …путем формирования административных барьеров, в целях обеспечения условий разработки стандартов для нужд публичных органов исключительно государственными научными учреждениями, а также формирование законодательной инициативы по дополнительной верификаций предлагаемых ТК 164 стандартов профильным органом власти» и др. Статья в данном виде может быть интересна читательской аудитории в плане наличия в ней систематизированных позиций автора применительно к заявленным в статье вопросам. На основании изложенного, суммируя все положительные и отрицательные стороны статьи «рекомендую опубликовать» с учетом замечаний.