Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Юридические исследования
Правильная ссылка на статью:

Анализ подходов определения юридической ответственности за действия искусственного интеллекта в медицинской сфере: опыт США и России

Атабеков Атабек Рустамович

кандидат экономических наук

доцент, кафедра административного и финансового права, Российский университет дружбы народов

117198, Россия, г. Москва, ул. Миклухо-Маклая, 6

Atabekov Atabek Rustamovich

PhD in Economics

Associate Professor of the Department of Administrative and Financial Law, Legal Institute, Peoples' Friendship University of Russia

117198, Russia, Moscow, Miklukho-Maklaya str., 6

atabekoff1@mail.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-7136.2023.6.40928

EDN:

IJDDLB

Дата направления статьи в редакцию:

30-05-2023


Дата публикации:

06-06-2023


Аннотация: Предметом исследования выступает формализация действий искусственного интеллекта в правоотношениях между врачом и пациентом. Объектом исследования выступают нормативные документы, рекомендации и иные документы регламентирующие вопросы применения искусственного интеллекта для целей медицинских правоотношений в России и США, судебная практика, академические публикации и аналитические отчеты по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая, диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования феномена автономности искусственного интеллекта, участвующего в правоотношениях между врачом и пациентом, с последующим определением потенциальных сценариев регламентации ответственности за действия ИИ.   Данная статья представляет сравнительный анализ действующих подходов по определению ответственности искусственного интеллекта в контексте публичных медицинских правоотношений США и России. В рамках проведенного сравнительного анализа выявлены базовые проблемы в области прозрачности принятия решения искусственного интеллекта, рассмотрены теоретические и практические ситуации применения искусственного интеллекта в медицинской сфере, а также предложены возможные компенсирующие правовые мероприятия, обеспечивающие безопасную интеграцию искусственного интеллекта в сферу здравоохранения в России. Предложенные в результате проведенного исследования мероприятия могут найти свое применение в законодательной и правоприменительной практике профильных органов власти реализующих интеграцию искусственного интеллекта в сферу публичных отношений в России, включая сферу здравоохранения.


Ключевые слова:

искусственный интеллект, электронное лицо, сравнительно-правовое исследование ИИ, медицинское право, телемедицина, безопасный ИИ, публичное право, административное право, информационное право, правоприменительная практика

Abstract: This article introduces a comparative analysis of existing approaches to determining the liability of artificial intelligence in the context of public medical relations between the United States and Russia. As part of the comparative analysis, the basic problems in the field of transparency in the decision-making of artificial intelligence were identified, theoretical and practical situations for the use of artificial intelligence in the medical field were considered, and possible compensatory legal measures were proposed to ensure the safe integration of artificial intelligence into the healthcare sector in Russia. The subject of the study is the formalization of artificial intelligence actions in legal relations between a doctor and a patient. The object of the study is regulatory documents, recommendations and other documents regulating the use of artificial intelligence for the purposes of medical legal relations in Russia and the United States, judicial practice, academic publications and analytical reports on the issues under study. The research methodology integrates a complex of modern philosophical, general scientific, special scientific methods of cognition, including dialectical, systemic, structural-functional, hermeneutical, comparative legal, formal legal (dogmatic), etc. Within the framework of this study, special emphasis is laid on the implementation of a comparative legal study of the phenomenon of the autonomy of artificial intelligence involved in legal relations between a doctor and a patient, followed by the identification of potential scenarios for regulating responsibility for AI actions. The measures proposed as a result of the study can be applied in the legislative activities and their implementation by relevant authorities that are in charge of the integration of artificial intelligence into the sphere of public relations in Russia, including the healthcare sector.


Keywords:

artificial intelligence, electronic person, comparative legal research of AI, medical law, telemedicine, secure AI, public law, administrative law, information law, law enforcement practice

Активное обсуждение статуса и последующей роли искусственного интеллекта (далее - ИИ) активно происходит на различных международных площадках (ОСЭР[1], ЕС[2], ООН[3]). Отдельное внимание уделяется интеграции ИИ в сферу здравоохранения и соответствующим правовым и общественным рискам[4], в этой связи предлагается более детально изучить опыт США для последующего определения приемлемых правовых конструкций для России.

Рассматривая нормативно-правовое регулирование ИИ в медицинской сфере США, необходимо отметить следующие документы:

1. Указ Президента США от 11.02.2019 №13859 «Поддержание американского лидерства в области искусственного интеллекта»[5], который определяет направления работ по проведению НИОКР в области ИИ, практическое применение и доработку технологий ИИ; создание необходимой̆ инфраструктуры, наборов данных, технических и этических стандартов в области ИИ.

2. Руководство США по регулированию приложений на основе ИИ[6], включающее принципы, которые необходимо учитывать при разработке технологий ИИ.

3. Рекомендации по цифровому здравоохранению[7], которые содержат нормативные документы и рекомендации, где закреплена позиция регулятора по отношению к решениям на базе ИИ, подход к их классификации и регистрации.

4. Закон об ответственности и переносе данных о страховании здоровья граждан[8] и Закон о применении медицинских информационных технологий в экономической деятельности и клинической практике[9]. Данные документы определяют необходимость обеспечения приватности данных, связанных с пациентом, всех участников процесса оказания медицинской услуги.

Рассматривая практический феномен применения искусственного интеллекта, нельзя не отметить технологию IBM Watson, которая использует когнитивные вычисления для интерпретации клинической информации о больных раком и определения курса лечения на основе фактических данных[10].

ИИ Deep Patient был обучен медицинской диагностике на базе данных примерно в составе 700 000 человек и при тестировании новых данных пациентов он показал невероятно хорошие результаты в прогнозировании заболеваний. Без каких-либо специальных инструкций ИИ обнаружил закономерности, которые не являются явно видными для лечащего врача и указывают на более широкий спектр проблем (включая рак печени)[11].

На практике это значит, что в программу загружается большой массив данных по онкологическим вопросам и врачу предоставляются последующие рекомендации на основании Big-data. На основе машинного обучения данный массив максимально быстро анализирует данные (в т.ч. выпадающие зоны) и максимально быстро дает предложения лечащему врачу.

По мнению автора, логичным становится вопрос ответственности в случае ошибки как при прогнозе со стороны ИИ, так и на стадии принятия решения врачом.

В контексте медицинского применения ИИ данную проблему обобщенно называют «черный ящик ИИ» в здравоохранении - использование непрозрачных вычислительных моделей для принятия решений, связанных со здравоохранением. В результате применения моделей алгоритмы непрозрачны, а выводы, которые они фиксируют, не могут быть явно поняты лечащему врачу, а иногда даже не могут быть явно сформулированы[12].

С точки зрения права опосредованным фактором размытия ответственности за предлагаемые решения ИИ является дискретность и диффузность, выражаемая тем, что процесс разработки ИИ может осуществляться различными командами (не работающими в тесной связке и в рамках единой общей координации)[13]. Данный подход влияет на вопрос определения ответственности группы разработчиков ИИ для медицинской сферы (учитывающей многокомпонентный аналитический инструментарий и глубину анализа данных пациентов).

Следующим значимым вопросом в области определения юридической ответственности за действия ИИ является вопрос самого качества получаемых для анализа ИИ данных[14]. На различных этапах возможно некорректное предоставление данных пациентов самим врачом, на этапе лабораторных исследований и т.д.

В контексте определения ответственности ИИ в медицинской сфере США необходимо отметить, что суды традиционно не выделяют юридическую ответственность машин поскольку они не являются юридическими лицами[15]. Как следствие, поднимается вопрос отдельной юридической конструкции для ИИ, поскольку присутствует риск перекладывания ответственности на неограниченный круг лиц (от пациента и врача, до разработчика/ов или лиц, влияющих на инфраструктуру и данные), что так же отмечается американскими учеными (сложность выявления причинно-следственных связей из-за большого количества правоотношений и механизмов взаимодействия между людьми и ИИ)[16].

При этом специалисты отмечают, что возможным решением для рассмотрения судебных споров, связанных с ИИ, является использование доктрины res ipsa loquitur, которая допускает вывод о небрежности конкретного ответчика, при том, что данный факт небрежности типичен для субъектов, к которым может быть отнесен ответчик. В основе данного принципа лежит вывод о том, что ответчик имеет исключительный контроль над орудием, причиняющим вред, который мог быть потенциально допущен в результате халатности[17].

Следующий аспект в области определения ответственности ИИ в медицинской сфере касается отклонения врача от стандартов оказания медицинской помощи, которое автоматически влечет к определению нарушения обязанностей врача по отношению к пациенту[18].

В рамках указанного подхода проводится сопоставительный анализ действий врача с его потенциальным коллегой, обладающим сопоставимым опытом, образованием и техническим оснащением.

При этом остается открытым вопрос интерпретации ИИ технического оснащения и его роли в стандарте оказания медицинских услуг[19].

Следующий аспект включает определение субсидиарной ответственности при применении ИИ в медицинской сфере[20]. Этот аспект касается вопроса о правовом статусе ИИ как «агента». В этой логике медицинское учреждение имеет некоторый контроль или власть над агентом (например, сотрудником — обычно врачом, но потенциально также и системой ИИ)[21].

Ученые предлагают теоретическое использование модели строгой ответственности, которая будет просто автоматически возлагать ответственность только на производителя или разработчика ИИ, в т.ч. через конструкцию единого предприятия. Юридическая ответственность «единого предприятия» подразумевает, что каждая организация в группе взаимосвязанных компаний может нести солидарную ответственность за действия других организаций, которые являются частью группы. Эта теория ответственности выгодна применительно к ИИ, поскольку не требует, чтобы компании функционировали совместно, а работали для достижения общей цели — спроектировали, запрограммировали и произвели продукт ИИ или его составные части[22].

Однако и тут возникает вопрос, проистекающий из технической природы автономности и самостоятельного развития ИИ[23]. Если суд сочтет ИИ полностью автономным, тогда возложение на медицинское учреждение субсидиарной ответственности за любой ущерб, причиненный ИИ, будет невозможным, поскольку такой автономный ИИ функционально будет вне контроля принципала.

Следующим вопросом, который отмечают ученые, является единогласный вывод судов о том, что врачи несут юридическую обязанность информировать пациентов о существенной информации относительно предлагаемого курса лечения и иной информации, связанной с оказанием медицинской услуги, тем самым усиливая роль врача в обеспечении того, чтобы адекватная информация сообщалась пациенту для принятия обоснованного решения[24]. Отсюда возникает вопрос понимания достаточного информирования пациента, в т.ч. в контексте используемого ИИ, его алгоритмов принятия решения и т.д.[25].

Рассматривая отечественное нормативно-правовое регулирование ИИ в медицинской сфере, необходимо отметить следующие документы:

1. Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской̆ Федерации», который определяет базовые правовые установки в отношении развития, регулирования и дальнейшего развертывания ИИ в России; этот документ дополняется перечнем конкретных мероприятий в Распоряжении Правительства РФ от 19.08.2020 № 2129-p

2. Федеральный закон от 21.11.2011 № 323 «Об основах охраны здоровья граждан в Российской Федерации». В статье 38 указанного закона определяется необходимость государственной регистрации любого программного обеспечения, используемого в медицинской сфере (порядок закреплен Постановлением Правительства РФ от 27.12.2012 № 1416).

3. Приказ Минздрава России от 06.06.2012 № 4н утверждает классификацию программного обеспечения, которое является медицинским изделием, в котором ИИ является медицинским изделием с высокой степенью риска.

4. Смежные федеральные законы: Федеральный закон от 27.07.2006 № 152-ФЗ «О персональных данных» (п. 1 ч. 1 ст. 6 предусматривающий обязательное согласие субъекта на обработку его данных) и Федеральный закон от 24.04.2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации» (предусматривающего экспериментальный режим регулирования деятельности ИИ с обезличенными данными субъектов).

На уровне отечественных доктринальных исследований необходимо отметить, что ряд ученых (Липчанская М. А., Заметина Т. В) отмечают, что присутствует искаженное восприятие понятия телемедицины и ИИ в медицинской сфере, а также необходимости углубления правовой регламентации правоотношений, возникающих между врачом и пациентом при использовании технологии ИИ[26]. Е.А. Отставнова дополняет данную позицию, отмечая, что в ближайшем будущем право на получение медицинской помощи может быть дополнено отдельной ролью ИИ[27].

И.В. Понкин в своем объемном докладе, посвященном регулированию ИИ в медицинской сфере, отмечает необходимость существенного прорывного развития референтной предметно-объектной области нормативного регулирования задействования технологий цифровых моделей-двойников ИИ. Данный исследователь также подчеркивает необходимость трансформации структуры и онтологии нормативного регулирования в сфере здравоохранения, включая синтез цифрового права, медицинского права и биоэтики. Кроме того, автор также обосновывает потребность проведения масштабного аудита в сфере нормативно-правового регулирования здравоохранения, в т.ч. с применением технологий ИИ и Big-data[28].

Исследуя феномен юридической ответственности за действия ИИ в медицине, необходимо отметить позицию юриста-практика М.С. Варюшин. В рамках своей обзорной статьи автор отметил, что первым базовым вопросом является вопрос о том, была ли надлежащим образом оформлена процедура внедрения ИИ медицинской организацией. В случае, если ИИ используется без регистрации как медицинского изделия, то ответственность сохраняется за медицинской организацией, с возможностью последующего обращения с иском к разработчику ИИ ( в зависимости от условий и порядка оформления лицензионного соглашения или договора об отчуждении исключительных прав на ИИ)[29]. Если ИИ зарегистрирован как медицинское изделие, то причинённый пациенту вред будет возмещаться эксплуатирующей медицинской организацией, при этом возможно предъявление регрессного иска к разработчику (правообладателю) ИИ в случае, если устанавливается сбой в работе ИИ, а не ошибка, допущенная врачом.

Кроме того, Ковелина Т. А., Собянин А. В. и Марухно В. М. в своем исследовании отмечают, что текущее нормативно-правовое регулирование ИИ не предусматривает возможности добровольного согласия пациента на использование искусственного интеллекта при осуществлении медицинского вмешательства, а ответственность ложится исключительно на изготовителя и/или пользователя, но в будущем круг ответственных может быть расширен[30].

Таким образом, на основании вышеизложенного рекомендуется формирование следующих регулятивных инициатив в области применения ИИ в медицинской сфере:

1. Создание единого стандарта оказания медицинских услуг с применением ИИ и обязательным оповещением о применении указанной технологии пациента, что требует соответствующих поправок в профильное законодательство.

2. Создание универсальных правил распределения ответственности за поступающие в ИИ данные пациентов (пациент, оператор, врач), обеспечения их обработки (врач, разработчик, внешний фактор), интерпретации данных (врач, разработчик) и также процедур проведения аудита получаемых результатов (разработчик, орган надзора (в т.ч. судебная экспертиза), врач, медицинская организация).

3. Формирование публичного координационного центра, обеспечивающего возможности и интересы разработчиков, пациентов, врачей и регулятивных органов в целях обеспечения безопасной интеграции ИИ в сферу здравоохранения.

Библиография
1. Обсерватория ИИ ОЭСР (каталогизированная информация о регулировании ИИ в различных странах мира): [сайт]. — URL: https://oecd.ai/en/ (дата обращения: 13.05.2023).
2. AD HOC COMMITTEE ON ARTIFICIAL INTELLIGENCE (CAHAI): [сайт]. — URL: https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da (дата обращения: 13.05.2023).
3. Первый проект рекомендации об этических аспектах искусственного интеллекта ЮНЕСКО: [сайт]. — URL: https://unesdoc.unesco.org/ark:/48223/pf0000373434_rus (дата обращения: 13.05.2023).
4. AI's impact raises legal, ethical questions Report on Tokyo Forum 2019 Parallel Session “Digital Revolution” : [сайт]. — URL: https://www.u-tokyo.ac.jp/focus/en/features/z0508_00159.html (дата обращения 13.05.2023)
5. Executive Order 13859 of February 11, 2019 Maintaining American Leadership in Artificial Intelligence: [сайт]. — URL: https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence (дата обращения 13.05.2023)
6. Guidance for Regulation of Artificial Intelligence Applications: [сайт]. — URL: https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf (дата обращения 13.05.2023)
7. List of FDA Guidance Documents with Digital Health Content: [сайт]. — URL: https://www.fda.gov/medical-devices/digital-health-center-excellence/guidances-digital-health-content (дата обращения 13.05.2023)
8. Health Insurance Portability and Accountability Act of 1996 (HIPAA): [сайт]. — URL: https://www.cdc.gov/phlp/publications/topic/hipaa.html (дата обращения 13.05.2023)
9. HITECH Act Enforcement Interim Final Rule: [сайт]. — URL:https://www.hhs.gov/hipaa/for-professionals/special-topics/hitech-act-enforcement-interim-final-rule/index.html(дата обращения 01.05.2023)
10. Chung J. What should we do about artificial intelligence in health care? //NYSBA Health Law Journal. – 2017. – Т. 22. – №. 3.
11. Knight W. The dark secret at the heart of al //Technology Review. – 2017. – Т. 120. – №. 3. – С. 54-61.
12. Price W., Nicholson I. I. Describing Black-Box Medicine //BUJ Sci. & Tech. L. – 2015. – Т. 21. – С. 347.
13. Scherer M. U. Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies //Harv. JL & Tech. – 2015. – Т. 29. – С. 353.
14. Matheny M. et al. Artificial intelligence in health care: The hope, the hype, the promise, the peril //Washington, DC: National Academy of Medicine. – 2019.
15. Chung J., Zink A. Hey Watson-Can I Sue You for Malpractice-Examining the Liability of Artificial Intelligence in Medicine //Asia Pacific J. Health L. & Ethics. – 2017. – Т. 11. – С. 51.
16. Danny Tobey, Explainability: Where AI and Liability Meet, DLA PIPER: [сайт]. — URL: https://www.dlapiper.com/en/us/insights/publications/2019/02/explainability-where-ai-and-liability-meet (дата обращения 13.05.2023)
17. Restatement (Third) of Torts: Liability for Physical and Emotional Harm § 17 (Am. Law. Inst. 2010): [сайт]. — URL: https://www.ali.org/publications/show/torts-liability-physical-and-emotional-harm/ (дата обращения 13.05.2023)
18. Greenberg M. D. Medical malpractice and new devices: defining an elusive standard of care //Health Matrix. – 2009. – Т.19. – С. 423.
19. Price I. I., Nicholson W. Medical malpractice and black-box medicine //Big Data, Health Law, and Bioethics (Cambridge University Press, 2018), U of Michigan Public Law Research Paper. – 2017. – №. 536.
20. Allain J. S. From Jeopardy! to jaundice: the medical liability implications of Dr. Watson and other artificial intelligence systems //Louisiana Law Review. – 2013. – Т. 73. – №. 4. – С. 7.
21. Restatement of the Law (3d) of Torts—Apportionment of Liability, § 13 (2000): [сайт]. — URL: https://www.ali.org/publications/show/torts-apportionment-liability/ (дата обращения 13.05.2023)
22. Vladeck D. C. Machines without principals: liability rules and artificial intelligence //Wash. L. Rev. – 2014. – Т. 89. – С. 117.
23. Chinen M. A. The co-evolution of autonomous machines and legal responsibility //Va. JL & Tech. – 2016. – Т. 20. – С. 338.
24. Sawicki N. N. Modernized informed consent: Expanding the boundaries of materiality //U. Ill. L. Rev. – 2016. – С. 821.
25. Cohen I. G. Informed consent and medical artificial intelligence: What to tell the patient? //Geo. LJ. – 2019. – Т. 108. – С. 1425.
26. Липчанская М. А., Заметина Т. В. Социальные права граждан в условиях использования искусственного интеллекта: правовые основы и пробелы законодательного регулирования в России //Журнал российского права. – 2020. – №. 11. – С. 78-96.
27. Отставнова Е. А. Реализация конституционного права на охрану здоровья в условиях развития искусственного интеллекта //apni. ru Редакционная коллегия. – 2020. – С. 36.
28. Понкин И. В. Медицинское право в условиях цифровизации //Бизнес, менеджмент и право. – 2021. – №. 1. – С. 22-25.
29. Варюшин М. С. Правовой режим технологий искусственного интеллекта, применяемых в телемедицине //Журнал телемедицины и электронного здравоохранения. – 2021. – Т. 7. – №. 2. – С. 18-22.
30. Ковелина Т. А., Собянин А. В., Марухно В. М. К ВОПРОСУ О ПРАВОВОМ РЕГУЛИРОВАНИИ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕДИЦИНЕ //Гуманитарные, социально-экономические и общественные науки. – 2022. – №. 2. – С. 148-151
References
1. OECD AI Observatory (catalogued information on AI regulation around the world): [Website]. — URL: https://oecd.ai/en/ (Accessed: 13.05.2023).
2. AD HOC COMMITTEE ON ARTIFICIAL INTELLIGENCE (CAHAI): [Website]. — URL: https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da (Accessed: 13.05.2023).
3. Outcome document: first draft of the Recommendation on the Ethics of Artificial Intelligence UNESCO: [Website]. — URL: https://unesdoc.unesco.org/ark:/48223/pf0000373434_rus (Accessed: 13.05.2023).
4. AI's impact raises legal, ethical questions Report on Tokyo Forum 2019 Parallel Session “Digital Revolution” : [Website]. — URL: https://www.u-tokyo.ac.jp/focus/en/features/z0508_00159.html (Accessed: 13.05.2023)
5. Executive Order 13859 of February 11, 2019 Maintaining American Leadership in Artificial Intelligence: [Website]. — URL: https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence (Accessed: 13.05.2023)
6. Guidance for Regulation of Artificial Intelligence Applications: [Website]. — URL: https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf (Accessed: 13.05.2023)
7. List of FDA Guidance Documents with Digital Health Content: [Website]. — URL: https://www.fda.gov/medical-devices/digital-health-center-excellence/guidances-digital-health-content (Accessed: 13.05.2023)
8. Health Insurance Portability and Accountability Act of 1996 (HIPAA): [Website]. — URL: https://www.cdc.gov/phlp/publications/topic/hipaa.html (Accessed: 13.05.2023)
9. HITECH Act Enforcement Interim Final Rule: [Website]. — URL:https://www.hhs.gov/hipaa/for-professionals/special-topics/hitech-act-enforcement-interim-final-rule/index.html (Accessed: 01.05.2023)
10. Chung, J. (2017). What should we do about artificial intelligence in health care?. NYSBA Health Law Journal, 22(3).
11. Knight, W. (2017). The dark secret at the heart of al. Technology Review, 120(3), 54-61.
12. Price, W., & Nicholson, I. I. (2015). Describing Black-Box Medicine. BUJ Sci. & Tech. L., 21, 347.
13. Scherer, M. U. (2015). Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies. Harv. JL & Tech., 29, 353.
14. Matheny, M., Israni, S. T., Ahmed, M., & Whicher, D. (2019). Artificial intelligence in health care: The hope, the hype, the promise, the peril. Washington, DC: National Academy of Medicine.
15. Chung, J., & Zink, A. (2017). Hey Watson-Can I Sue You for Malpractice-Examining the Liability of Artificial Intelligence in Medicine. Asia Pacific J. Health L. & Ethics, 11, 51.
16. Danny Tobey, Explainability: Where AI and Liability Meet, DLA PIPER: [Website]. — URL: https://www.dlapiper.com/en/us/insights/publications/2019/02/explainability-where-ai-and-liability-meet (Accessed: 13.05.2023)
17. Restatement (Third) of Torts: Liability for Physical and Emotional Harm § 17 (Am. Law. Inst. 2010): [Website]. — URL: https://www.ali.org/publications/show/torts-liability-physical-and-emotional-harm/ (Accessed: 13.05.2023)
18. Greenberg, M. D. (2009). Medical malpractice and new devices: defining an elusive standard of care. Health Matrix, 19, 423.
19. Price, I. I., & Nicholson, W. (2017). Medical malpractice and black-box medicine. Big Data, Health Law, and Bioethics (Cambridge University Press, 2018), U of Michigan Public Law Research Paper, (536).
20. Allain, J. S. (2012). From Jeopardy to Jaundice: The medical liability implications of Dr. Watson and other artificial intelligence systems. La. L. Rev., 73, 1049.
21. Restatement of the Law (3d) of Torts—Apportionment of Liability, § 13 (2000): [Website]. — URL: https://www.ali.org/publications/show/torts-apportionment-liability/ (Accessed: 13.05.2023)
22. Vladeck, D. C. (2014). Machines without principals: liability rules and artificial intelligence. Wash. L. Rev., 89, 117.
23. Chinen, M. A. (2016). The co-evolution of autonomous machines and legal responsibility. Va. JL & Tech., 20, 338.
24. Sawicki, N. N. (2016). Modernized informed consent: Expanding the boundaries of materiality. U. Ill. L. Rev., 821.
25. Cohen, I. G. (2019). Informed consent and medical artificial intelligence: What to tell the patient?. Geo. LJ, 108, 1425.
26. Lipchanskaya М. А., Zametina Т. V. (2020). Social Rights of Citizens Using Artificial Intelligence: Legal Bases and Gaps in Legislative Regulation in Russia. Journal of Russian Law, (11), 78-96.
27. Ostavnova E. A. (2020). Implementation of the constitutional right to health protection in the context of the development of artificial intelligence. apni. ru Editorial team, 36.
28. Ponkin I. V. (2021). Medical Law in conditions of digitalization. Business, Management and Law, (10), 22-25.
29. Varjushin М. S. (2021). Legal framework for artificial intelligence technologies in telemedicine. Russian Journal of Telemedicine and E-Health, 7, (2), 18-22.
30. Kovelina T. A., Sobyanin A. V., Marukhno V. M. (2022). TO THE QUESTION OF LEGAL REGULATION OF THE USE OF ARTIFICIAL INTELLIGENCE IN MEDICINE. Humanities, socio-economic and social sciences, (2), 148-151

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предметом исследования в представленной на рецензирование статье являются, как это следует из ее наименования, подходы к определению юридической ответственности за действия искусственного интеллекта (ИИ) в медицинской сфере. В работе обобщен опыт США и России. Заявленные границы исследования полностью соблюдены автором. Необходимо немного скорректировать формулировку заголовка: "Анализ подходов к определению юридической ответственности за действия искусственного интеллекта в медицинской сфере: опыт США и России".
Методология исследования в тексте статьи не раскрывается, но очевидно, что ученым использовались всеобщий диалектический, логический, формально-юридический, сравнительно-правовой методы исследования.
Актуальность избранной автором темы исследования обоснована довольно кратко: "Активное обсуждение статуса и последующей роли искусственного интеллекта (далее - ИИ) активно происходит на различных международных площадках (ОСЭР[1], ЕС[2], ООН[3]). Отдельное внимание уделяется интеграции ИИ в сферу здравоохранения и соответствующим правовым и общественным рискам[4], в этой связи предлагается более детально изучить опыт США для последующего определения приемлемых правовых конструкций для России". Дополнительно ученому необходимо перечислить фамилии ведущих специалистов, занимавшихся исследованием поднимаемых в статье проблем.
В чем проявляется научная новизна исследования, прямо не говорится. Фактически она проявляется во введении в научный оборот данных о порядке определения юридической ответственности за действия искусственного интеллекта в медицинской сфере на примере США, а также в инициативах ученого относительно совершенствования соответствующего российского законодательства. В частности, автор
предлагает создать единый стандарт оказания медицинских услуг с применением ИИ и обязательным оповещением о применении указанной технологии пациента, универсальные правила распределения ответственности за поступающие в ИИ данные пациентов, а также сформировать публичный координационный центр, обеспечивающий возможности и интересы разработчиков ИИ, пациентов, врачей и регулятивных органов в целях обеспечения безопасной интеграции ИИ в сферу здравоохранения. Таким образом, статья заслуживает внимания читательской аудитории и вносит определенный вклад в развитие отечественной юридической науки.
Научный стиль исследования выдержан автором в полной мере.
Структура работы вполне логична. Во вводной части статьи автор кратко обосновывает актуальность избранной темы исследования. В основной части работы ученый делает обзор законодательства и правоприменительной практики США в части установления юридической ответственности за действия искусственного интеллекта в медицинской сфере, после чего делает рекомендации по совершенствованию соответствующего российского законодательства. В заключительной части статьи содержатся выводы по результатам проведенного исследования.
Содержание статьи полностью соответствует ее наименованию, но не лишено небольших недостатков формального характера.
Так, автор пишет: "Активное обсуждение статуса и последующей роли искусственного интеллекта (далее - ИИ) активно происходит на различных международных площадках (ОСЭР[1], ЕС[2], ООН[3])". Все аббревиатуры при первом употреблении должны быть расшифрованы. Кроме того, формулировка предложения тавтологична ("активное обсуждение... активно происходит").
Библиография исследования представлена 30 источниками (научными статьями и аналитическими данными), в том числе на английском языке. Характер и количество использованных при написании статьи источников позволили автору раскрыть тему исследования с необходимой глубиной и полнотой.
Апелляция к оппонентам имеется, но носит общий характер, что во многом обусловлено направленностью исследования. Научная дискуссия ведется автором корректно. Положения работы аргументированы в необходимой степени.
Выводы по результатам исследования имеются, они четкие, структурированные и заслуживают внимания читательской аудитории ("... рекомендуется формирование следующих регулятивных инициатив в области применения ИИ в медицинской сфере: 1. Создание единого стандарта оказания медицинских услуг с применением ИИ и обязательным оповещением о применении указанной технологии пациента, что требует соответствующих поправок в профильное законодательство. 2. Создание универсальных правил распределения ответственности за поступающие в ИИ данные пациентов (пациент, оператор, врач), обеспечения их обработки (врач, разработчик, внешний фактор), интерпретации данных (врач, разработчик) и также процедур проведения аудита получаемых результатов (разработчик, орган надзора (в т.ч. судебная экспертиза), врач, медицинская организация). 3. Формирование публичного координационного центра, обеспечивающего возможности и интересы разработчиков, пациентов, врачей и регулятивных органов в целях обеспечения безопасной интеграции ИИ в сферу здравоохранения").
Статья не вычитана автором. В ней встречаются опечатки и пунктуационные ошибки.
Интерес читательской аудитории к представленной на рецензирование статье может быть проявлен прежде всего со стороны специалистов в сфере административного права, информационного права, медицинского права при условии ее доработки: раскрытии методологии исследования, дополнительном обосновании актуальности темы статьи, устранении нарушений в оформлении работы.