ПРОБЛЕМЫ ПРАВОВОГО РЕГУЛИРОВАНИЯ ПРИМЕНЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕЖДУНАРОДНОМ ГУМАНИТАРНОМ ПРАВЕ


PROBLEMS OF LEGAL REGULATION OF THE APPLICATION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN INTERNATIONAL HUMANITARIAN LAW


УДК 341.3

 

СИБИЛЕВА Ольга Павловна

 

 

SIBILEVA Olga Pavlovna

 

Аннотация. В статье рассмотрены проблемы правового регулирования применения технологий искусственного интеллекта в международном гуманитарном праве. Проведен анализ развития военных технологий и новых воинских формирований. Предложены пути совершенствования международно-правового и национального законодательства в сфере искусственного интеллекта и автономных систем вооружения.   Abstract. The article deals with the problems of legal regulation of the use of artificial intelligence technologies in international humanitarian law. The analysis of the development of military technologies and new military formations is carried out. Ways to improve international legal and national legislation in the field of artificial intelligence and autonomous weapons systems are proposed.

Ключевые слова: технологии; искусственный интеллект; автономные системы вооружения; правовое регулирование; проблемы; международное гуманитарное право.

  Keywords: technology; artificial intelligence; autonomous weapons systems; legal regulation; problems; international humanitarian law.

 

 

 

В соответствии с п. 30 Декларации тысячелетия 2000 г. и п. 134 Итогового документа Всемирного саммита 2005 г. Россия обозначила следование доктрине верховенства права и содействует обеспечению универсальной безопасности в соответствии с целями и принципами Устава ООН. Позиционирование универсализма в параметрах общей системы безопасности государств определяет задействованность всех компонентов безопасности как юридических постулатов должного поведения членов международного сообщества. При обстоятельствах многоформатности феномена «безопасность государства» информационная безопасность обозначена в качестве постановочной юридической составляющей современного миропорядка.


Это обусловлено, в частности, тем, что бурное развитие биологических и информационных технологий, когнитивных наук, при их взаимоувязанном использовании, в том числе в военной сфере, позволяет исключительно эффективно решать следующие первостепенные в войнах XXI века задачи:

- повышение качества разведывательного и информационного обеспечения войск;

- увеличение физического потенциала личного состава (путем создания дополнительных интерфейсов к человеческому организму: нейроинтерфейсов разных типов, экзоскелета и т.д.);

- повышение эффективности управления войсками.


Таким образом, очевидно, что современные войны объективно становятся столкновением информационных технологий, в том числе с использованием возможностей спутниковой системы Starlink Илона Маска.


Как представляется, все большую актуальность в этой сфере в последние десятилетия приобретает проблема правового урегулирования производства и боевого применения рядом наиболее развитых в технологическом отношении стран различных образцов вооружения с использованием элементов искусственного интеллекта. Сложившееся здесь сегодня положение дел подтверждает справедливость слов советника Министра обороны Российской Федерации А.М. Ильницкого, что «технологические и социальные ресурсы влияния на людей огромны, а в области обороны и безопасности особенно» [7].


Несмотря на широкое распространение понятия «искусственный интеллект» (Artificial Intelligence, далее ИИ), его общепринятое определение в настоящее время отсутствует. В данной статье под ИИ мы будем понимать область знаний, которая рассматривает разработку технологий, позволяющих вычислительным системам функционировать подобно разумному поведению человека [18, C. 2].


ИИ охватывает «информационно-коммуникационную инфраструктуру, программное обеспечение, с использованием методов машинного обучения, процессы и сервисы по обработке данных, их анализу и синтезу» [9].


По оценке Г. Никонорова и И. Родионова, «в настоящее время превалируют два основных подхода к разработке ИИ: нисходящий, который состоит в создании экспертных систем баз данных и систем логического вывода, имитирующих психические процессы человека, и восходящий, который заключается в моделировании алгоритма работы нейронных сетей и создании биокомпьютеров – машин, сопряженных с биологической системой человека» [10].


Как следствие положения, при котором интеллектуализация является важнейшим условием прорыва в боевом потенциале, элементы технологий, связанных с обработкой большого массива данных и просчетом различных вариантов решения, присутствуют практически во всех образцах современной военной техники и вооружения.


В режиме объективной констатации базовым, предметно установленным направлением развития вооруженных сил всех развитых стран мира в условиях современного миропорядка является, как это констатируется на концептуальном уровне (Е.А. Голубенко, А.Г. Чернявский, О.П. Сибилева), «замещение традиционных систем вооружения наземными и морскими робототехническими комплексами на основе технологий новых автономных источников энергообеспечения, системами ИИ с возможностями самостоятельно решать боевые задачи в любой обстановке, беспилотными летательными аппаратами (БПЛА) различного назначения» [1, С. 103; 14, С. 230].


Так, в ходе боевых действий между Азербайджаном и Арменией осенью 2020 г. на территории Нагорного Карабаха впервые были массово применены, как показательно отмечает Д. Сафонов, ударные БПЛА по различным тактическим сценариям против регулярных вооруженных сил [12, С. 9]. Широкое применение противоборствующими сторонами БПЛА различных типов получило и в рамках специальной военной операции по демилитаризации и денацификации Украины.


Как обоснованно констатируют И. Каляев и И. Рубцов, позиционно юридическим показателем поступательного развития военных технологий и их включенности в систему вооруженных сил ведущих стран мира является использование и создание новых видов вооружений (БПЛА, в том числе подводных, и средств борьбы с ними; гиперзвуковых летательных аппаратов; лазерного оружия; автономных транспортных средств; средств разведки, радиоэлектронной борьбы и информационной войны с использованием ИИ) и новых воинских формирований (киберкомандования, космических войск, противоракетной обороны, подразделений гидронавтов и робототехники) [4].


В связи с постоянным усилением режима автономии таких систем вооружений Международным Комитетом Красного Креста (МККК) предложено определение «автономные системы вооружения» (САС), охватывающее «любые виды систем оружия, автономно действующие в воздухе, на суше или на море и самостоятельно выполняющие «критически важные функции» – выбор и поражение цели без участия человека» [2, C. 79-81].


Вместе с тем, по объективным показателям своего системообразующего существа следует считать обоснованной доктринальную позицию (Р. Грейс), в соответствии с которой современное международное право пока не выработало единого, универсально признанного определения «автономная система вооружения» [19].


Позиционирование многоформатности САС и, соответственно, многообразия концептуального их оформления экспертное сообщество современного миропорядка в лице международных организаций (как межправительственных, так и неправительственных) и авторитетных ученых-юристов обоснованно устанавливает востребованность всестороннего (аналитического) подхода к автономным системам вооружений как феномену современного миропорядка. В режиме постановочного заключения предметно обоснованно обозначено несоответствие САС установленным критериям международного гуманитарного права (МГП). Показательно верно (В. Козюлин) определяется, что в целях предотвращения гонки вооружения необходимо полностью запретить разработку, производство и использование CАС как на национальном уровне, так и в рамках международного юридически обязывающего документа [5].


В ситуации, когда институт международной ответственности действует исключительно по обстоятельствам наличествования конкретного субъекта права, проблемность в плане установления субъекта ответственности в случае с САС подтверждает общий концептуальный вывод об их несоответствии МГП.


При обстоятельствах, когда МГП как отдельная отрасль современного международного права определяет САС как несоответствующие его сущностному содержанию, так и международное право в целом (с учетом его отраслевого и институционного пространства), как это верно констатируется на концептуальном уровне (Д. Уивер), объективно рассматривается как не предоставляющее однозначного решения проблематики правового регулирования САС [20, C. 14-21].


Тем не менее некоторые специалисты отмечают, что САС «совместимы с нормами международного права и могут быть использованы при условии соблюдения правовых норм о применении военной силы», а разработка международно-правовых норм по «контролю над ними не должна мешать доступу к мирному использованию умных автономных технологий» [16, C. 232].


Необходимо отметить, что прямое отношение к проблеме правового регулирования САС имеют основные принципы и положения МГП, обязательные для государств и их граждан: «оговорка Мартенса», что при условии неурегулированности нормативными правовыми актами, гражданские лица и комбатанты остаются под защитой и действием принципов международного права, проистекающих из установившихся обычаев, из принципов гуманности и требований общественного сознания (требований так называемой совести общества), а также принципы гуманности, заложенные во Всеобщей декларации прав человека 1948 г. и Международном пакте о гражданских и политических правах 1966 г. и ст. 36 Дополнительного протокола I 1977 г. к Женевским конвенциям от 12 августа 1949 г (далее – ДП I).


Следует отметить, что применение САС в условиях вооруженного конфликта никак не регулируется положением п. 1 ст. 37 ДП I, вводящего прямой запрет на совершение акта вероломства в указанных условиях, однако, в случае если использование САС не преследует цель причинить необоснованно большие повреждения и страдания, в том числе и масштабного ущерба биоценозу на территории его действия, то следует признать, что они не нарушают запретов, установленных ст. 35 ДП I [16, C. 232]. В МГП также «не закреплено требование непосредственного взаимодействия человека с САС при реализации смертоносного кинетического действия, что, как показывает практика, влечет невозможность автоматического соблюдения его норм» [8, C. 60, 62].


В части соблюдения предписания современного международного права о востребованности добросовестного исполнения государствами своих международных обязательств (п. 2 ст. 2 Устава ООН) позитив правоприменительной практики мирового сообщества предметно позиционирует проблематику упорядочения САС на основе права и выработки на этот счет корпуса правовых предписаний о юридической ответственности государств в заявленной области [8, С. 64; 17, C. 9; 20, C. 183; 21, C. 394; 22; 23, C. 18].


Как обоснованно отмечает П. Шер, в реальных условиях САС могут быть неуправляемыми, существует возможность их взлома, подмены и манипуляций со стороны противника. Необходимо учитывать, что «непредсказуемость САС, отсутствие гарантии их способности различать гражданских лиц и комбатантов, особенно в населенных пунктах, надежно распознавать воюющих комбатантов и комбатантов, вышедших из строя, а также высокая вероятность выбора ими ошибочной цели осложняют проведение юридической экспертизы на предмет соответствия боевого применения САС требованиям МГП, предусмотренным статьей 36 ДП I» [15].


Безусловно, «САС превосходит человека по многим показателям, но только человек способен размышлять, проявлять сострадание, быть гуманным, принимать осмысленные решения и нести за них юридическую ответственность» [16, C. 234].


Кроме того, следует иметь в виду, что включение во все сферы военного противоборства элементов автономности и ИИ угрожает стабильности во всем мире. П.М. Морхат справедливо констатирует, «что даже у неядерных стран возникает возможность резкого наращивания как потенциала сдерживания, так и ударных возможностей» [8, С. 62.]. Кроме того, необходимо всесторонне учитывать риск попадания САС в руки террористов.


Как концептуально отмечается А.Ю. Скуратовой и Е.Е. Корольковой, «самопроизвольное срабатывание САС также может привести к эскалации вооруженного конфликта. Эта проблема актуальна и в мирное время при размещении роботов вдоль международных границ (например, между Северной и Южной Кореей)» [13, С. 30].


Полагаем, следует признать, что на основе выводов Группы правительственных экспертов по актуальным вопросам применения смертоносных автономных систем вооружения, закрепленных в декабре 2016 г. на V-й Обзорной конференции о конкретных видах обычного оружия, выработаны десять руководящих принципов применения САС.


Безусловным признано полное тотальное применение норм МГП как основной принцип введения в действие САС, а также всех видов систем вооружений. При этом имеется в виду, что подпадают под регулирование МГМ и все разработки подобного вида вооружения в будущем. Бесспорно, что и международно-правовая ответственность за последствия их использования должна быть обеспечена в соответствии с международным правом, включая установление ответственности командования и общественного контроля [3].


Кроме того, Группой правительственных экспертов по применимости Устава ООН и норм МГП к информационным технологиям и киберпространству, выделены следующие установочные юридические проблемы, связанные с применением САС [16, C. 236]:

«как адаптировать и трактовать соответствующие статьи международно-правовых документов применительно к САС;

в какой степени предлагаемые нормы и другие меры по ограничению САС применимы к высокоавтоматизированным или полуавтономным системам вооружения без ИИ;

каким образом определять достаточность и оценивать эффективность контроля человека в модели взаимодействия «человек-машина»».


Выход государств-членов мирового сообщества на всестороннее решение по проблематике САС обозначен их целенаправленными действиями по обеспечению универсальной военной безопасности на основе принципа суверенного равенства государств.


Постановочно, перевод проблематики автономных систем вооружения в режим конкретных международно-правовых договоренностей в параметрах соответствующего юридического акта показательно обоснованно определяет себя в качестве установочного критерия межгосударственного взаимодействия государств в части обеспечения и поддержания международного мира и безопасности.


Международный договор как способ упорядочения межгосударственного взаимодействия на основе права представляется логичным и объективно востребованным вариантом предметного решения проблематики САС в параметрах военных объектов с ИИ. Выработка договорных основ международно-правового регулирования в сфере ИИ, носящих рекомендательный характер в виде «мягкого права», призвана быть результативно констатирована в формате действенного юридического акта международного договора универсальной направленности.


Показательная юридическая значимость в рамках поступательного процесса прогрессивного развития МГП установлена по обстоятельствам принятия на международно-правовом уровне специального международного документа – Окинавской хартии глобального информационного общества 2000 г., подписанной представителями G8 (в том числе и Российской Федерацией) с целью формирования нормативной базы, содействующей оптимизации глобальных сетей и сокращению разрыва между странами в цифровом обществе [14, С. 25].


Позиционирование правовой знаковости международного документа в объективном порядке обозначено его вкладом в систему международной безопасности как международного юридического акта на пространстве современного миропорядка. Соответственно, международно-правовая значимость Рекомендаций по искусственному интеллекту Организации экономического сотрудничества и развития 2019 года (далее – Рекомендации 2019 года) в объективном режиме обозначена юридическим качеством этого акта как первого межправительственного документа, специально посвященного непосредственно ИИ. Показательный субъектный состав документа в логическом порядке включает в себя около 40 государств и Россию, которая подписала документ, одобряющий Рекомендации 2019 года в формате их предметной юридической значимости.


Позиционирование указанных Рекомендаций как юридического акта по правовому регулированию процедуры использования объектов с ИИ определило принятие специального юридического документа – Заявления министров экономики стран-участниц G20 (2019 г.), посредством которого государства-члены подтвердили юридическую значимость корпуса принципов развития ИИ, перечисленных в Рекомендациях 2019 года, имплементированных как приложение к Заявлению.


Концептуально, работа по прогрессивному развитию МГП в части упорядочения на основе права процедуры использования объектов с ИИ, как вполне обоснованно констатирует И.А. Филипова, не ограничивается этическими кодексами (без наступления юридической ответственности), а предусматривает целенаправленный созидательный процесс международно-правового нормотворчества в этой области правового регулирования объектов с ИИ [14, C. 28].


МККК поддерживает государства, выступающие с инициативой по установлению международных ограничений в отношении САС, и приветствует усилия участников Конвенции о негуманном оружии по выработке нормативной и оперативной основы этих ограничений. Так, МККК разработал Рекомендации государствам относительно регулирования автономных систем вооружений (Женева, 12 мая 2021 г.), предлагающие:

прямой и недвусмысленный отказ от непредсказуемых САС из-за их неизбирательного действия;

отказ от использования САС для нанесения ударов по людям;

ограничение продолжительности, географического охвата, масштабов применения САС и видов их целей военными объектами;

ограничение ситуаций применения САС и требование взаимодействия между человеком и машиной [11].


Рекомендации МККК получили подтверждение в рамках проведенного 9 декабря 2021 г. в Москве региональной делегацией этой международной гуманитарной организации круглого стола: «Автономные системы вооружений и военное применение искусственного интеллекта» [6].


Постановочно, в режиме объективной констатации, развитие технологий ИИ и САС представляет собой серьезное испытание для всей системы МГП, что предопределяет необходимость безотлагательного правового урегулирования на международном и национальном уровне их проблематики с учетом общего юридического интереса членов мирового сообщества. И, что особенно важно в складывающейся сегодня военно-политической обстановке, требует незамедлительного уяснения каждым должностным лицом в Российской Федерации, что информационная безопасность нашего Отечества как конкретная правовая составляющая позиционирования России на пространстве внутри государственности обеспечивает юридическую основу мер по поддержанию её государственной безопасности.


Кроме того, с учетом беспрецедентного использования технологий ИИ в ходе информационной войны, с еще большей силой развернувшейся против Российской Федерации после начала специальной военной операции по денацификации и демилитаризации Украины, заслуживает самого серьёзного внимания вопрос о системе информационно-психологического противоборства России, которое должно быть способно эффективно противостоять угрозам информационно-психологической безопасности Российской Федерации как в настоящее время, так и в будущем и иметь единый федеральный координационный центр.


Исходя из складывающейся военно-политической обстановки и отечественного исторического опыта, всё возрастающим фактором обеспечения национальной безопасности Российской Федерации, сохранения её целостности, независимости, стабильности и способности успешно противостоять воздействию технологий ИИ и информационной агрессии, становится военно-патриотическое воспитание граждан нашей страны.

 


СПИСОК ИСТОЧНИКОВ И ЛИТЕРАТУРЫ:

 

1. Голубенко Е.А. Автономные системы вооружения и международное гуманитарное право // Вестник академии военных наук. № 2 (59). 2017. С. 103.
2. Доклад «Международное гуманитарное право и вызовы современных вооруженных конфликтов» на XXXII Международной конференции Красного Креста и Красного Полумесяца в Женеве 6-10 декабря 2015 г. С. 79-81.
3. Доклад сессии 2019 года Группы правительственных экспертов по вопросам, касающимся новых технологий в сфере создания смертоносных автономных систем вооружений. 25 сентября 2019 г. [Электронный ресурс]. URL: https://undocs.org/pdf?symbol=ru/CCW/GGE.1/2019/3 (дата обращения: 19.02.2022).
4. Каляев И., Рубцов И. Боевым роботам нужна программа // Национальная оборона. № 11. Ноябрь 2019 г. [Электронный ресурс]. URL: http://www.oborona.ru/includes/periodics/defense/2012/0801/20258963/detail.shtml (дата обращения: 19.02.2022).
5. Козюлин В. Три группы угроз смертоносных систем [Электронный ресурс]. URL: http://russiancouncil.ru/analytics-and-comments/analytics/tri-gruppy-ugroz-smertonosnykh-avtonomnykh-system/ (дата обращения: 19.02.2022).
6. Круглый стол «Автономные системы вооружений и военное применение искусственного интеллекта» // Международный Комитет Красного Креста. Статья 10 января 2022 г. [Электронный ресурс]. URL: https://www.icrc.org/ru/document/kruglyy-stol-avtonomnye-sistemy-vooruzheniy-i-voennoe-primenenie-iskusstvennogo-intellekta (дата обращения: 19.02.2022).
7. Международный форум «АРМИЯ-2021». Проекты, подразумевающие использование технологии искусственного интеллекта, требуют обязательной экспертизы профильных силовых структур. 22.08.2021. [Электронный ресурс]. URL: https://www.rusarmyexpo.ru/army2021/ mediacenter/news/newsexpo/42448.html (дата обращения: 19.02.2022).
8. Морхат П.М. К вопросу о соответствии автономных интеллектуальных систем вооружения принципам международного гуманитарного права // Вестник военного права. № 2. 2018. С. 60-64.
9. Национальный стандарт Российской Федерации ГОСТ Р 59277-2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта» от 23 декабря 2020 [Электронный ресурс]. URL: https://docs.cntd.ru/document/1200177292 (дата обращения: 19.02.2022).
10. Никоноров Г., Родионов И. Мозги за 14 миллиардов // Военно-промышленный курьер. № 1 (914) за 11 января 2022 года [Электронный ресурс]. URL: https://vpk.name/news/571052_mozgi_za_14_ milliardov.html (дата обращения: 19.02.2022).
11. Позиция МККК в отношении автономных систем вооружений // Международный Комитет Красного Креста. Статья 12 мая 2021 г. [Электронный ресурс]. URL: https://www.icrc.org/ru/document/poziciya-mkkk-v-otnoshenii-avtonomnyh-sistem-vooruzheniy-0 (дата обращения: 19.02.2022).
12. Сафонов Д. Дроны Карабаха: стандарты новой войны // Независимое военное обозрение. 2020. № 46. С. 9.
13. Скуратова А.Ю., Королькова Е.Е. Смертоносные автономные системы вооружений: проблемы международно-правового регулирования // Российский юридический журнал. 2019. № 1 (124) С. 22-33.
14. Филипова И.А. Трансформация правового регулирования труда в цифровом обществе. Искусственный интеллект и трудовое право: научное издание. Нижний Новгород: Нижегородский госуниверситет им. Н.И. Лобачевского, 2019. 89 с.
15. Чем может быть опасно автономное вооружение [Электронный ресурс]. URL: https://habr.com/ru/post/391285/ (дата обращения: 19.02.2022).
16. Чернявский А.Г., Сибилева О.П. Автономное высокоточное оружие как вызов международному гуманитарному праву // Электронное научное издание «Военное право». 2020. № 4 (62). C. 229-238 [Электронный ресурс]. URL: http://www/voennoepravo.ru/node/342512 (дата обращения: 19.02.2022).
17. Castel J.-G., Castel M.E. The road to artificial superintelligence: has international law a role to play? // Canadian Journal of Law and Technology. 2016. Vol. 14. № 1. Pp. 1-15.
18. International Dictionary of Artificial Intelligence, 2nd edition. William J. Raynor Jr. Global Professional Publishing, 2009. 242 p.
19. Geiss R. The International-Law Dimension of Autonomous Weapons Systems // International Dialogue department of the Friedrich-Ebert-Stiftung [Электронный ресурс]. URL: http://library.fes.de/pdffiles/id/ipa/11673.pdf (дата обращения: 19.02.2022).
20. Krishnan A. Automating war: The need for regulation // Contemporary Security Policy. 2009. Vol. 30. № 1. Pp. 172-193.
21. Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. 2017. Vol. 8. Pp. 379-425.
22. Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system // Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva [Электронный ресурс]. URL: http://www.icrc.org/en/download/file/21606/ccwautonomous-weapons-icrc-april-2016.pdf (дата обращения: 19.02.2022).
23. Weaver J.F. Abhor a Vacuum: The Status of Artificial Intelligence and AI Drones Under International Law // New Hampshire Bar Journal. 2013, Spring/Summer. Pp. 14-21.

 

REFERENCES:

 

1. Golubenko E.A. Autonomous weapons systems and international humanitarian law // Bulletin of the Academy of Military Sciences. No. 2 (59). 2017. P. 103.
2. Report "International Humanitarian Law and the Challenges of Modern Armed conflicts" at the XXXII International Conference of the Red Cross and Red Crescent in Geneva on December 6-10, 2015. Pp. 79-81.
3. Report of the 2019 session of the Group of Governmental Experts on Issues Related to New Technologies in the Field of Creating Lethal Autonomous Weapons Systems. September 25, 2019 [Electronic resource]. URL: https://undocs.org/pdf?symbol=ru/CCW/GGE.1/2019/3 (Access date: 19.02.2022).
4. Kalyaev I., Rubtsov I. Combat robots need a program. National Defense Magazine No. 11 November 2019 [Electronic resource]. URL: http://www. oborona.ru/includes/periodics/defense/2012/0801/20258963/detail.shtml (Access date: 19.02.2022).
5. Kozyulin V. Three groups of threats of deadly systems. [Electronic resource]. URL: http://russiancouncil.ru/analytics-and-comments/analytics/tri-gruppy-ugroz-smertonosnykh-avtonomnykh-system (Access date: 19.02.2022).
6. Round table "Autonomous weapons systems and military applications of artificial intelligence" // International Committee of the Red Cross. Article January 10, 2022 [Electronic resource]. URL: https://www.icrc.org/ru/document/kruglyy-stol-avtonomnye-sistemy-vooruzheniy-i-voennoe-primenenie-iskusstvennogo-intellekta (Access date: 19.02.2022).
7. International Forum "ARMY-2021". Projects involving the use of artificial intelligence technology require mandatory expertise of specialized law enforcement agencies. 22.08.2021. [Electronic resource]. https://www.rusarmyexpo.ru/army2021/mediacenter/news/newsexpo/42448.html (Access date: 19.02.2022).
8. Morkhat P.M. On the issue of compliance of autonomous intelligent weapons systems with the principles of international humanitarian law // Bulletin of Military Law. No. 2. 2018. Pp. 60-64.
9. Nikonorov G., Rodionov I. Brains for 14 billion // Military-industrial courier. No. 1 (914) of January 11, 2022 [Electronic resource]. URL: https://vpk.name/news/571052_mozgi_za_14_milliardov.html (Access date: 19.02.2022).
10. National standard of the Russian Federation GOST R 59277-2020 "Artificial intelligence systems. Classification of artificial intelligence systems" dated December 23, 2020 [Electronic resource]. URL: https://docs.cntd.ru/document/1200177292 (Access date: 19.02.2022).
11. The ICRC's position on autonomous weapons systems // International Committee of the Red Cross. May 12, 2021 [Electronic resource]. URL: https://www.icrc.org/ru/document/poziciya-mkkk-v-otnoshenii-avtonomnyh-sistem-vooruzheniy-0 (Access date: 19.02.2022).
12. Safonov D. Drones of Karabakh: standards of a new war // Independent Military Review. 2020. No. 46. P. 9.
13. Skuratova A.Yu., Korolkova E.E. Lethal autonomous weapons systems: problems of international legal regulation // Russian Law Journal. 2019. No. 1 (124). Pp. 22-33.
14. Chernyavsky A.G., Sibileva O.P. Autonomous precision weapons
as a challenge to international humanitarian law // Electronic scientific publication "Military Law". 2020. No. 4 (62). Pp. 229-238. [Electronic resource]. URL: http://www/voennoepravo.ru/node/342512 (Access date: 19.02.2022).
15. What can be dangerous autonomous weapons [Electronic resource]. URL: https://habr.com/ru/post/391285 (Access date: 19.02.2022).
16. Filipova I.A. Transformation of legal regulation of labor in a digital society. Artificial intelligence and labor law: scientific publication. Nizhny Novgorod: Nizhny Novgorod State University named after N.I. Lobachevsky, 2019. 89 p.
17. Castel J.-G., Castel M.E. The road to artificial superintelligence: has international law a role to play? // Canadian Journal of Law and Technology. 2016. Vol. 14. № 1. Pp. 1-15.
18. International Dictionary of Artificial Intelligence, 2nd edition. William J. Raynor Jr. Global Professional Publishing, 2009. 242 p.
19. Geiss R. The International-Law Dimension of Autonomous Weapons Systems // International Dialogue department of the Friedrich-Ebert-Stiftung [Electronic resource]. URL: http://library.fes.de/pdffiles/id/ipa/11673.pdf (Access date: 19.02.2022).
20. Krishnan A. Automating war: The need for regulation // Contemporary Security Policy. 2009. Vol. 30. № 1. Pp. 172-193.
21. Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. 2017. Vol. 8. Pp. 379-425.
22. Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system // Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11-15 April 2016, Geneva [Electronic resource]. URL: http://www.icrc.org/en/download/file/21606/ccwautonomous-weapons-icrc-april-2016.pdf (Access date: 19.02.2022).
23. Weaver J.F. Abhor a Vacuum: The Status of Artificial Intelligence and AI Drones Under International Law // New Hampshire Bar Journal. 2013, Spring/Summer. Pp. 14-21.

 

 

Сибилева Ольга Павловна
адъюнкт кафедры конституционного (государственного) и международного права
курсовой офицер-преподаватель
Военный институт (военно-морской политехнический) ВУНЦ ВМФ «Военно-морская академия»
196604, г. Санкт-Петербург, г. Пушкин, Кадетский бульвар, д. 1.
Адрес электронной почты защищен от спам-ботов. Для просмотра адреса в вашем браузере должен быть включен Javascript.
SPIN-код: 2915-4145

 

Sibileva Olga Pavlovna
Adjunct at the Department of Constitutional (State) and International Law
Course Officer-Lecturer
Military Institute (Naval Polytechnic) VUNTS VMF "Naval Academy"
Kadetsky boulevard, d.1, Pushkin, St. Petersburg, Russia, 196604



 

© Электронный научный журнал "Вестник адъюнкта" 2018. Учредитель и издатель: Федеральное государственное казенное военное образовательное учреждение высшего образования "ВОЕННЫЙ УНИВЕРСИТЕТ" Министерства обороны Российской Федерации. 123001, г. Москва, ул. Большая Садовая, д.14.

^ НАВЕРХ