Вымышленное оружие. Какой будет гонка автономных вооружений? Что говорит международное гуманитарное право об автономных системах вооружения

Дроны Predator и Reaper были построены с учетом традиционной механики полета и удаленного контроля, и вооружены типичным для воздушных сил оружием – мощными ракетами, которые одинаково подходят для уничтожения зданий, техники и живой силы. Самопилотируемые вооруженные роботы будущего будут не просто улучшенным инструментом для нанесения воздушных ударов. Так говорит Стюарт Рассел, профессор Университета Калифорнии в Беркли.

Скорее всего, летальные автономные системы вооружения (LAWS) будут массовой силой. Каждый робот будет небольшим, дешевым, и иметь легкое вооружение, подобно пехоте. Прогнозировать определенную природу этого оружия сложно, но по поводу развертывания армии автономных роботов на поле боя Рассел предлагает два гипотезы: «Возможно, они будут чрезвычайно маленькие, но способные застрелить кого-нибудь», говорит он. «Или же они смогут размещать миниатюрные заряды прямо на черепе человека. Одного грамма взрывчатки достаточно, чтобы сделать отверстие в листе металла. Вероятно, этого будет достаточно».
Прогноз Рассела сфоркусирован на эффективной летальности, но антропоморфизировать эту армию как рой крошечных летающих снайперов неправильно. По оценкам Рассела, со всеми инновациями и разработками, в рамках этой гонки вооружений будут выработаны системы стоимостью $ 10 за штуку. Развернуть такое оружие над городом и приказать ему убивать любого, кто держит оружие, будет дешево и эффективно. «Независимо от того, как закончится эта гонка, становится понятно, что у людей нет ни шанса».
Рассел опасается, что будущие войны будут неравными. В статье, публикованной в журнале Nature, Рассел повторяет о проблемах, связанных с LAWS. Среди этих проблем - перспектива злоупотребления автономным вооружением, которое может применяться для совершения военных преступлений. Отправление роботов в традиционно горячие точки, такие как городские бои, может превратить вооруженный конфликт в одностороннее массовое убийство, как военных, так и гражданских. «Ставки высоки», пишет он. «Летальные автономные системы вооружения это третья революция в войне после пороха и ядерного оружия».
Дебаты вокруг автономных систем, как правило, сосредоточены на том, кто будет принимать решения. Противники технологии, среди которых организация Human Rights Watch, часто предупреждают, что преимущества роботов - такие, как способность определять цель, могут сыграть злую шутку, особенно при нарушениях связи, которые в боевых условиях практически неизбежны. Между тем, военнослужащие утверждают, что всегда видят «в цикле» человека, который будет отдавать окончательный приказ. Но, тем не менее, оборонная промышленность часто выходят за рамки этой возможности. Например, описание находящегося в разработке стелс-дрона Taranis включает в себя фразу «режим полной автономии».
В своей статье Рассел приводит в пример два проекта DARPA, которые нацелены на увеличение уровня автономности беспилотников. Проект FLA (Fast Lightweight Autonomy) разрабатывает методы навигации в сложных условиях для малых беспилотных систем, а программа CODE проявляет явный интерес к автономному бою. «Так же как волки охотятся с минимальным общением, несколько беспилотных летательных аппаратов CODE будут взаимодействовать, чтобы определять и поражать цели под командованием руководителя миссии», сказал управляющий программой в пресс-релизе ранее в этом году.
Несмотря на упоминания о руководителе-человеке, поражение целей является частью программы, относящейся к системе принятия решений, когда беспилотники могут быть вынуждены действовать автономно. «Обычно они вставляют пару фраз тут и там, чтобы напомнить о человеческом факторе «в цикле», говорит Рассел. «Но я думаю, что они заинтересованы в таком вооружении, и если не будет введено запрета, они будут продолжать разрабатывать и использовать его». Он читает, что LAWS уже были развернуты. Израильский дрон Harop предназначен для поиска радаров на территории противника. При обнаружении источника излучения система автоматически врезается в него и детонирует. «Это переходит границу. Представьте, что палестинцы установят радиолокационную систему около здания школы, чтобы спровоцировать израильтян на совершение военного преступления».
Но даже если LAWS будут функционировать идеально и каким-то образом смогут избежать масштабных инцидентов, таких как дружеский огонь или убийство мирного населения, они остаются неким подобием ядерного оружия. Не существует гарантированной обороны против разрушительной силы ядерного нападения. Рассел утверждает, что когда автономное оружие созреет, его будет так же невозможно остановить, как и атомную бомбу, что создаст предпосылки для новой холодной войны. «Если человечество не начнет сложный процесс определения и запрещения этих систем, это лишь вопрос времени, когда облако роботов отправится из одного города в другой», опасается Рассел. «Я полагаю, люди смогут придумать контрмеры, какое-то электромагнитное оружие или нечто подобное». Но если его рассуждения правильные, и вскоре гонка автономных вооружений выльется в миллионные полчища роботов, направленных на густонаселенные районы, будет ли существовать эффективная защита против этого автономного орудия массового уничтожения?

Американский боевой робот «Гладиатор»

Крупнейший международный форум ученых - 24-я Международная объединенная конференция по искусственному интеллекту - высказался против создания боевых роботов с искусственным интеллектом. Более 1000 участников этого форума подписали открытое письмо против «гонки вооружений в области военного применения ИИ» и за запрет «наступательного автономного оружия». В числе тех, кто подписал письмо: основатель «Tesla » Элон Маск, со-основатель «Apple » Стив Возняк, знаменитый физик Стивен Хокинг, и основатель компании «DeepMind », добившейся в создании искусственного интеллекта значительных успехов , Демис Хассабис.

В письме содержится призыв отказаться от использования искусственного интеллекта (ИИ) при создании боевой техники, а также предостережение, что гонка подобных вооружений приведет к непредсказуемым последствиям: «Технологии искусственного интеллекта достигли такого уровня, что развертывание [автономного оружия] — пусть пока не с юридической, но с практической точки зрения — возможно в течении нескольких лет, и ставки высоки: автономное оружие рассматривается как третья глобальная революция в военном деле, после пороха и атомной бомбы»

Авторы письма, известные ученые полагают, что как только одна из великих держав начнет производить такие военные системы, другие страны немедленно последуют этому примеру и начнется новая, во многом фатальная по последствиям, гонка вооружений: «Если какая-либо крупная военная держава попытается вырваться вперед в развитии оружия с искусственным интеллектом, то глобальная гонка вооружений практически неизбежна». В отличие от ядерного оружия, указывается в письме, военные роботы с ИИ не требуют дорого или трудно получаемого сырья и, таким образом, их производство будет дешево для всех крупных военных держав и развернут повсеместно их массовое производство.

В письме особо подчеркнуто, что «так же, как большинство химиков и биологов не видят никакого интереса в создании химического или биологического оружия, большинство исследователей ИИ никак не заинтересованы в создании ИИ оружия с искусственным интеллектом» .

Ученые категорически отвергают мысль о том, что автономное оружие, управляемое искусственным интеллектом, снизит количество человеческих жертв во время военных конфликтов. По мнению лучших в мире специалистов по ИИ, напротив, роботы будут склонны открывать огонь раньше, чем это сделали бы люди, что приведет только к еще большим и неоправданным жертвам. «Конец этой технологической траектории ясен: автономное оружие станет новым “автоматом Калашникова”. Ключевой вопрос для человечества сейчас состоит в том, начинать ли гонку вооружений в области военного применения ИИ, или отказаться от этого» , - полагают ученые. В письме они призвали ООН, другие влиятельные организации сделать все, чтобы отказаться от военного применения роботов с искусственным интеллектом. «В целом, мы считаем, что Искусственный Интеллект имеет большой потенциал, чтобы принести во многом, пользу человечеству, и в этом наша цель оправдывает средства. Начинать гонку вооружений в сфере ИИ является плохой идеей, и должно быть предотвращено в виде запрета на автономные наступательные вооружения за пределами значимого человеческого контроля (выделено мной - Г.П.)» - заключает воззвание ученых.

Что же такое автономное оружие? Автономное оружие может выбирать и поражать цели без вмешательства человека. Это военная вооруженная платформа перемещающая по воздуху, по земле или воде, снабженная разнообразными сенсорами и датчиками и кибернетическим устройством искусственного интеллекта, способная по своему усмотрению, без контроля со стороны человека, ориентироваться и передвигаться на местности, находить цель и переходить к уничтожению живой силы и техники противника в соответствии с оперативно-тактическими планами своего командования. Принято сегодня этот вид вооружений называть LARS (Lethal autonomous robotics ) — смертельные автономные роботы.

Международные дискуссии о запрете автономного оружия

Дискуссии на тему безопасности в области разработки военных роботов нового поколения ведутся давно и все чаще выходят на самый высокий, международный уровень. Так, вопрос об автономном оружии обсуждается в ООН уже не первый год. ООН рассматривает возможность запрета определенных типов автономных боевых систем, объясняя это тем, что они могут быть запрограммированы как на уничтожение целей, так и на убийство людей. В отличие от БПЛА на поле боя эти военные машины работают автономно.

В 2013 году ООН поручил своему эксперту, южноафриканскому профессору Кристофу Хайнсу, одному из крупнейших специалистов в мире по вопросам гуманитарного права, подготовить доклад о юридических аспектах использования боевых роботов. К.Хайнс блестяще справился с поставленной задачей.

В докладе К.Хайнса констатируется необходимость ввести мораторий на «производство, сборку, передачу, приобретение, внедрение и использование» автономных боевых роботов до тех пор, пока международная конференция не разработает соответствующие международные нормы и правила их применения .

Речь в докладе идет про автономные системы, способные вести бой без участия человека. К.Хайнс называл их (назвал так впервые и название прижилось) LARS (Lethal autonomous robotics — смертельные автономные роботы). По утверждению доклада, подготовленного ученым, «главная проблема в использовании таких систем состоит в снижении ценности человеческой жизни оппонента» . Более того, использование таких систем в конфликтах против стран, не обладающих схожими технологиями, может привести к катастрофическим для этих стран последствиям. Как подчеркнуто в докладе пока нет соответствующих международных норм, остается неясным, можно ли запрограммировать роботов таким образом, чтобы они действовали «в соответствии с международными гуманитарными нормами» — в частности, отличали бы мирных жителей от военнослужащих. К.Хайнс также выразил опасение, что применение автономных роботов повлечет за собой уменьшение ответственности человека за свои действия.

Доклад, посвященный таким системам, появился также на сайте Управления Верховного комиссара ООН по правам человека 29 мая 2013 года: «23 rd session of the Human Rights Council , on the topic of lethal autonomous robotics . It was delivered on behalf of the High Representative by Mr. Jarmo Sareva, Director of the Geneva Branch of UNOD».

Обсуждения в ООН темы LARS ведутся, однако ООН пока лишь рассматривает возможность запрета разработок определенных типов автономных боевых систем. Ведутся обсуждения и на других площадках, и в ряде международных организациях.

Международный Комитет Красного Креста (МККК) увидел в происходящем негативные тренды, и начал работу по проблеме автономных вооружений. «Возрастающая автономность несет в себе опасность того, что вместо людей решения будут принимать машины и, таким образом, будет постепенно ослабевать контроль человека над применением силы. Хотя признается, что окончательный контроль останется за людьми, необходимо более подробное обсуждение того, что такое достаточный, эффективный или надлежащий контроль человека за применением силы» , - указывается в документе МККК «Автономные системы вооружения: вопросы и ответы». А еще в марте 2014г. МККК созвал международное совещание экспертов для того, чтобы активизировать обсуждение этой проблематики.

Известная организация «Amnesty International » также выступила против создания кибернетических автономных убийц. В своём заявлении на заседании 16 апреля 2015 года, посвящённом Конвенции ООН о запрещении или ограничении применения конкретных видов обычного оружия, организация призвала принять превентивный запрет на разработку, накопление, передачу, развёртывание и использование полностью автономных систем оружия (АСО или роботов-убийц) .

Пока в международном гуманитарном праве нет специальных положений, касающихся боевых автономных систем. Возникают непростые вопросы, требующие ответов. Как и какими принципами обеспечить контроль нападений автономных роботов и исключить неизбирательность? Может ли право определить статус лиц, которые управляют военными роботами с расстояния в несколько тысяч километров от поля боя? Могут ли автономные боевые роботы обеспечить необходимый уровень избирательности при нападениях, которое диктует международное гуманитарное право?

Некоторые ученые-правоведы полагают, что здесь можно применить Женевскую конвенцию от 1949 года. Особо важное значение, по мнению юристов-международников, имеет так называемая Оговорка Мартенса от 1907 года к Гаагской конвенции, которая запрещает использовать оружие, противоречащее «принципам гуманности и требованиям общественного сознания ». Как известно, система искусственного интеллекта не способна выносить субъективные оценки по определению. Надо напомнить, что автор «Оговорки» - крупный русский дипломат, юрист-международник Федор Федорович Мартенс (1845-1909гг) и именно это предложение, содержит Вступительная часть IV Гаагской конвенции 1907 года, которое, само по себе, придает этому документу и по сей день выдающееся значение.

Третья революция в военном деле началась?

Наблюдаемый в последние 40-50 лет удивительный прогресс в сфере автоматизации и развития информационных технологий не мог не сказаться и на создании новых, перспективных образцов вооружений. Сегодня развиваются одновременно концепции так называемых сетецентрических войн, в которых скачкообразно повышена информационно-коммуникационная связность подразделений, и особую роль приобретают системы боевого управления и интеграции разных видов вооруженных сил на едином поле боя. В направлении все большей автоматизации идет и процесс создания новых образцов вооружений

Не затрагивая сейчас технических аспектов проблемы, хотелось бы затронуть аспект политический. А именно - изменение характера войны и ее влияния на общественное сознание. Например, сегодня мы видим как, Соединенные Штаты ведут необъявленные, «дистанционные» войны.

Речь идет о системе оперативных баз США, развернутых практически по всему миру, на которых расположены американские БПЛА различных модификаций. БПЛА управляются операторами, сидящими, даже не в командном центре в США, а, как мы узнали благодаря разоблачениям Э.Сноудена, в специальных управляющих центрах на американских военных базах в Германии.

Таким образом, только небольшой шаг отделяет нас от третей революции в военном деле - от появления автономного оружия поля боя. Не секрет, что целый ряд стран хочет стать обладателями автономных вооружений. Компании в США, Соединённом Королевстве, Иордании, Израиле, Испании, Южной Корее, Японии, в других странах уже занимаются разработкой «менее летального» роботизированного оружия для использования в правоохранительной деятельности, которое либо управляется удалённо, либо стреляет автоматически при прикосновении .

Некоторые страны работают над более серьезными программами в этой сфере. Прежде всего, это - США. Потому что именно эта страна находятся сегодня на пике научно-технического могущества и стремится использовать это преимущество для отрывного наращивания своего военно-политического потенциала. Вот как рисует себе картину американского военного воздействия на противника в близком будущем заместитель министра обороны США Роберт Уорк: «системы, требующие вмешательства человека, не сумеют отразить первый удар. Машинам придется самостоятельно сдержать атаку и отразить ее буквально за микросекунды. Нам также потребуется высокая степень взаимодействия человека с машиной, подобно игре человека с использованием компьютерной программы для анализа позиции, когда машины, используя анализ больших данных, будут информировать людей, принимающих решения на поле боя. …В результате принятые решения будут более качественными, чем если бы люди принимали их без участия машин — или же машины без участия людей. Вам потребуются стандартные системы, с участием или без участия оператора. У вас будут все более сложные автономные безоператорные системы. Все это у вас будет. Поэтому мы полагаем, что военные действия в будущем будут характеризоваться очень высоким уровнем симбиоза человека и машины, когда простые платформы будут контролировать рои недорогих автономных систем, которые можно объединить в зависимости от обстоятельств и ввести в бой в больших количествах» .

Сегодня в США работают над большим числом проектов военных роботизированных платформ и военных роботов, а так же над проектами автономного оружия, возможно не только разведывательного характера.

Среди возникающих в различных конструкторских бюро США прототипов - беспилотный летательный аппарат «ShadowHawk », разрабатываемый американской компанией «Vanguard Defense Industries ». Аппарат «ShadowHawk » спроектирован для того, чтобы выполнять функции, аналогичные тем, что выполняет разведывательный вертолёт, однако его можно оснастить оружием.

«ShadowHawk » американской компании «Vanguard Defense Industries »

Знаменитая американская DARPA (Defense Advanced Research Projects Agency — Агентство передовых оборонных исследовательских проектов Министерства обороны США) сегодня ведет две основные программы по созданию автономного оружия. Это Fast Lightweight Autonomy (FLA) - Быстролетающий легкий автономный робот и Collaborative Operations in Denied Environment (CODE) - Автономные взаимодействующие роботы в оспариваемом воздушном пространстве.

Первая программа FLA касается разработки маленького вертолета, который сможет полностью самостоятельно действовать в городской среде и внутри зданий. Целью программы FLA говорится в документе DARPA, «является изучение нетрадиционных методов восприятия и методов автономии, которые позволили бы создать новый класс минималистичных алгоритмов навигации при движении на высокой скорости и в условиях перегрузок» . Благодаря этому исследованию, программа направлена на развитие и демонстрацию возможностей для малого (то есть способного влететь в обычное окно) автономного БПЛА, который сможет летать на скоростях до 20 метров в секунду при отсутствии связи с оператором и без привязки к опорным точкам GPS.

«Хищные птицы и летающие насекомые дают нам пример того, какие возможности мы хотим для небольших беспилотных летательных аппаратов»,- заявил М.Мисайя, руководитель программы FLA DARPA. Как полагает руководитель программы FLA, «ястреб-тетеревятник, например, может летать очень быстро через густой лес без того чтобы столкнуться с деревом. Многие насекомые тоже могут летать и набрасываться на добычу с невероятной скоростью и точностью. Целью программы FLA является изучение нетрадиционных методов восприятия и автономии», Такие неординарные возможности могут дать небольшим беспилотным летательным аппаратам способность летать с большой скоростью, огибая многочисленные препятствия, а также возможность легко ориентироваться в ограниченном пространстве и даже быстро распознавать его, если робот уже был здесь прежде.

Аппарат FLA на натурных испытаниях. Пунктирная линия - его траектория полета со скоростью 20 метров в секунду. (Фото DARPA )

Как указано в программе DARPA CODE большинство современных систем требуют постоянного контроля по выделенному каналу связи с БПЛА. С помощью телеметрии и участия в этом пилота-оператора и большого числа аналитиков, БПЛА обычно выполняет свои миссии. Такие требования жестко ограничивают масштабы и экономическую эффективность операций БПЛА. Работа DARPA по программе «Автономные взаимодействующие роботы в оспариваемом воздушном пространстве», в пространстве, где отсутствует связь с оператором, направлены на разработки принципиально новых алгоритмов и программного обеспечения беспилотных автономных летательных модулей. Эти разработки позволят расширить возможности миссии действующих американских БПЛА для увеличения возможностей американских ВВС по проведению операций.

«Так же, как волки охотятся в единых стаях с минимальным общением, группа беспилотных летательных аппаратов CODE будет обмениваться информацией и помогать друг другу, чтобы найти пути, определить и поразить цели, причем вся группа будет работать под командованием одного человека - руководителя миссии» , - заявил Жан-Шарль Леде, менеджер программы CODE DARPA. Предусмотрено, что улучшения автономии БПЛА поможет одному оператору проводить операции БПЛА в группе с шестью и более БПЛА одновременно. «Цель программы состоит также в создании летательных аппаратов, действующих автономно на всех этапах боевых миссий от поиска, слежки, идентификации цели и атаки» . Система при этом будет предназначена для функционирования в ситуациях, когда из-за глушения радиосигнала связь с командным центром и с оператором становится невозможной.

Схема действия программы CODE DARPA. Автономные взаимодействующие роботы по приказу боевого пилота действуют в оспариваемом пространстве. (Фото DARPA)

Как считают специалисты DARPA, автономные взаимодействующие роботы-БПЛА в своем боевом применении будут находить цели и, в соответствии с поставленными задачами, с минимальным контролем со стороны оператора будут динамически адаптироваться к складывающейся обстановке, приходить на помощь к своим измотанным в боях частям или участвовать в парировании неожиданно возникших угроз. Планируется, что примерно шестью автономно взаимодействующими роботами-БПЛА будет одновременно управлять один офицер/оператор. Командиры смогут смешивать и сочетать различные системы автономно взаимодействующих роботов-БПЛА с конкретными возможностями, которые определяют отдельные миссии, а потери в живой силе и технике при этом, полагают в DARPA, резко уменьшатся.

Конечно, о прямых боевых функциях автономных роботов предпочитают не говорить вслух. Но, тем не менее, это следует из заявления директора Управления оборонных программ DARPA С.Томпкинса: «Операции по ликвидации городских и стихийных бедствий будут, очевидно, главными бенефициарами наших программ, но приложения для этой технологии могут распространяться на широкий спектр задач с использованием малых и больших беспилотных систем, связанных с пилотируемыми платформами как системами систем» .

Новая гонка вооружений не неизбежна

Как мы видим, исследования, НИОКРЫ и ОКРЫ по созданию автономных боевых роботов идут полным ходом. И не только в США. Недавно СМИ сообщили, например, о создании автономного робота-охранника в Южной Корее. Продвигаются такие разработки и в других государствах. И это очень опасные разработки.

Автономное оружие может включать в себя, например, вооруженные квадрокоптеры, которые могут разыскивать и ликвидировать людей, отвечающих определенным заранее определенным критериям. Но автономное оружие это не крылатые ракеты или беспилотные дроны, которыми управляют люди. Международное право пока не имеет определений этого нового вида оружия уничтожения - автономного оружия. Однако научно-технический прогресс в области вооружений приводит к тому, что решения на применение силы на поле боя всё чаще могут приниматься машинами, работающими без вмешательства человека. Здесь важно не перейти некую очень размытую грань. Черту, линию, разделяющую два возможных сценария будущего - позитивного будущего и катастрофичного. Ряд международных и неправительственных организаций видят потенциальную опасность. «Технологии дошли до такого уровня, на котором эти системы можно на практике внедрить в течение года, а уже не лет», — подтверждает Стюарт Рассел известный специалист в области вычислительной техники из Калифорнийского университета в Беркли. По поводу развертывания армии автономных роботов поля боя С.Рассел предлагает два гипотезы: «Возможно, они будут чрезвычайно маленькие, но способные застрелить кого-нибудь или же они смогут размещать миниатюрные заряды прямо на черепе человека. Одного грамма взрывчатки достаточно, чтобы сделать отверстие в листе металла. Вероятно, этого будет достаточно». По оценкам С.Рассела, со всеми инновациями и разработками, в рамках возможной гонки вооружений будут выработаны системы небольшой стоимости - до десятков долларов за штуку. Развернуть такое оружие и приказать ему убивать любого, кто держит оружие, будет дешево и эффективно. «Независимо от того, как закончится эта гонка, становится понятно, что у людей нет ни шанса». В статье, публикованной в журнале «Nature », С.Рассел подчеркивает, что главная проблема, связанная с LARS касается возможностей применения этого вида оружия для совершения военных преступлений. С.Рассел считает, что ряд прототипов LARS уже поступили в специальные части ряда армий. Например, дрон «Harop », разработанный в Израиле, и предназначенный для поиска радаров на территории противника, при обнаружении источника излучения врезается в него и детонирует.

Прогресс систем искусственного интеллекта в военной сфере способен, безусловно, повысить конфликтность на планете, породить волну военных инцидентов, расширить во много раз возможности террористов и экстремистов всех мастей, и, наконец, дать новый импульс мировой гонке вооружений. Никто их ученых не может предсказать последствий создания вооруженного искусственного интеллекта и его будущих отношений с человечеством. Поэтому призыв из Буэнос-Айреса выдающихся мировых ученых в сфере искусственного интеллекта и робототехники к мировой общественности, ООН и, конечно, к дипломатическому сообществу всех государств, должен быть обязательно услышан.

24-я Международная объединенная конференция по искусственному интеллекту прошла с 25 июля по 1 августа, 2015 в Буэнос-Айресе, Аргентина. Международная объединенная конференция по искусственному интеллекту - International Joint Conferences on Artificial Intelligence (IJCAI) - это серия международных конференций - основное место сбора исследователей, занимающихся вопросами искусственного интеллекта. Периодичность: раз в два года (по нечетным годам), с 2016 года - ежегодно. Проводится с 1969 года в различных странах. Спонсорами конференций являются IJCAI и Ассоциации по искусственному интеллекту принимающих стран. В ходе конференций проходят пленарные и секционные доклады, сообщения со стендовыми докладами, выступления на круглых столах, а также выставки интеллектуальных продуктов (Подробнее: http :// aihandbook . intsys . org . ru / index . php / activity Please enable JavaScript to view the

Технический прогресс в области вооружений приводит к тому, что решения на применение силы на поле боя всё чаще могут приниматься машинами, работающими без вмешательства человека. Здесь мы рассматриваем возможные результаты таких глубоких изменений в ведении войны и предостерегаем от применения такого оружия, если при этом не гарантируется соблюдение международного гуманитарного права.

Как могут автономные системы вооружения, действующие независимо, проводить различие между комбатантами и гражданскими лицами? Смогут ли они отменить нападение, при котором возможно причинение несоразмерного ущерба гражданским лицам? И кто понесет ответственность за нарушение международного гуманитарного права?

Поскольку на многие вопросы ответа нет, МККК призвал государства должным образом оценивать возможные гуманитарные последствия и проблемы в области международного гуманитарного права, к которым может привести использование этих новых военных технологий. А в марте 2014 г. МККК созвал международное совещание экспертов для того, чтобы активизировать обсуждение этой проблематики.

Что такое автономное оружие?

Автономные системы вооружения (их также называют «смертоносное автономное оружие» или «роботы-убийцы») самостоятельно, без вмешательства человека, разыскивают, выявляют и поражают цели. Сегодня уже применяются некоторые системы вооружения, которые самостоятельно выполняют такие «критически важные» функции, как выявление и поражение целей. Например, некоторые оборонительные системы вооружения имеют автономные режимы перехвата управляемых и неуправляемых ракет, артиллерийских снарядов и летательных аппаратов противника на близком расстоянии. Пока что эти системы обычно являются стационарными и действуют автономно в течение короткого времени, только при строго определенных обстоятельствах (например, при наличии сравнительно небольшого числа гражданских лиц и объектов) и против ограниченного перечня видов целей (например, главным образом, боеприпасы или транспортные средства). Однако в будущем автономные системы вооружения могут функционировать вне жестко заданных пространственно-временных рамок, сталкиваясь с разнообразными быстро меняющимися обстоятельствами и, возможно, непосредственно выбирая людей в качестве цели.

Относятся ли беспилотные летательные аппараты (БПЛА) к автономным видам оружия?

Автономные системы вооружения открывают огонь без вмешательства человека, в отличие от применяемых сегодня беспилотных воздушных систем (их также называют беспилотниками или дистанционно пилотируемыми летательными аппаратами). У БПЛА могут быть другие автономные функции (такие как автопилот и навигация), но им требуется человек-оператор для выбора целей, активации и наведения установленного на них оружия и открытия огня.

Раздавались призывы к мораторию или запрету разработки, производства и применения автономных систем вооружения. Поддерживает ли МККК эти призывы?

МККК пока что не присоединяется к этим призывам. Однако МККК призывает государства рассматривать принципиальные правовые и этические проблемы, связанные с применением автономных систем вооружения, до того, как будет происходить их дальнейшая разработка или применение в условиях вооруженного конфликта, как того требует международное гуманитарное право. МККК озабочен возможными гуманитарными последствиями использования автономных систем вооружения, а также тем, насколько возможно применять их, не нарушая норм международного гуманитарного права.

Что говорит международное гуманитарное право об автономных системах вооружения?

Конкретной нормы, относящейся к автономным системам вооружения, не существует. Однако право гласит, что государства должны выяснять, не запрещено ли международным правом применение какого-либо нового вида оружия либо средства или метода ведения войны, которые оно разрабатывает или приобретает, при некоторых или при любых обстоятельствах. Данное требование содержится в Дополнительном протоколе I к Женевским конвенциям.

Иными словами, давно установившиеся нормы международного гуманитарного права, регулирующие ведение военных действий, в особенности, принципы различения целей, соразмерности и принятия предосторожностей при нападении, относятся ко всем новым видам оружия и техническим инновациям в области ведения войны, в том числе, и к автономным системам вооружения. Проведение такой правовой оценки новых видов оружия имеет критически важное значение при разработке новых военных технологий.

Самая сложная задача для любого государства, разрабатывающего или приобретающего автономную систему вооружения, заключается в том, чтобы обеспечить ее способность функционировать в соответствии со всеми этими принципами. Например, неясно, как такое оружие может проводить различие между гражданским лицом и комбатантом, как того требует принцип различения целей. Мало того, от такого оружия может даже потребоваться, чтобы оно различало комбатантов, активно участвующих в военных действиях, и теми, кто выбыл из строя или сдающимися в плен, а также между гражданскими лицами, принимающими непосредственное участие в вооруженных столкновениях и вооруженными гражданскими лицами – такими как сотрудники правоохранительных органов или охотники – которые остаются под защитой права и по которым нельзя наносить удар.

Автономной системе вооружения также необходимо будет действовать в соответствии с принципом соразмерности, согласно которому случайные потери среди гражданского населения, ожидаемые в результате нанесения удара по военному объекту, не должны быть чрезмерными по сравнению с предполагаемым конкретным и непосредственным военным преимуществом. Наконец, автономная система вооружения должна будет функционировать так, чтобы это позволяло принимать необходимые меры предосторожности при нападении, призванные свести к минимуму число жертв среди гражданского населения.

Как показывают оценки существующих технологий и тех, которые могут появиться в обозримом будущем, маловероятно, что удастся создать машины с такими функциями принятия решений. Поэтому сегодня существуют серьезные сомнения относительно способности автономных систем вооружения соблюдать международное гуманитарное право, кроме каких-то очень специфических случаев и самых простых ситуаций.

К каким результатам может привести применение автономных систем вооружения в вооруженном конфликте?

Некоторые сторонники автономных систем вооружения утверждают, что эти системы можно программировать так, чтобы они действовали более «осторожно» и точно, чем люди, и, следовательно, применять их с целью сокращения случайных потерь среди гражданского населения. С другой стороны, их оппоненты утверждают, что у автономных систем вооружения никогда не будет присущего человеку здравого смысла, который необходим для законного применения силы, и что их применение скорее приведет к усугублению гуманитарных последствий.

Эти системы вооружения заставляют также задуматься над серьезными вопросами нравственного порядка, и их широкое распространение изменило бы коренным образом существующие взгляды на ведение военных действий. Главный вопрос для всех нас состоит в том, могут ли принципы гуманности и требования общественной совести разрешить машинам принимать решения о том, кому из людей жить, а кому умереть.

Кто несет понесет ответственность, если применение автономной системы вооружения приведет к нарушению международного гуманитарного права?

Автономная система вооружения – это машина, и она не может понести ответственность за нарушение международного гуманитарного права. Возникает вопрос, выходящий за рамки ответственности тех, кто разворачивает эти системы: кто понесет юридическую ответственность, если в результате функционирования автономной системы вооружения будет совершено военное преступление – инженер, программист, изготовитель или командир, который привел оружие в действие? Если ответственность не может быть определена как того требует международное гуманитарное право, можно ли признать развертывание таких систем законным или этически оправданным?

Что должно стать основным вопросом в будущих дискуссиях государств?

Возрастающая автономность несет в себе опасность того, что вместо людей решения будут принимать машины и, таким образом, будет постепенно ослабевать контроль человека над применением силы. Хотя признается, что окончательный контроль останется за людьми, необходимо более подробное обсуждение того, что такое достаточный, эффективный или надлежащий контроль человека за применением силы.

МККК рекомендовал государствам проанализировать автономность при осуществлении «критически важных функций» существующих и разрабатываемых систем вооружения, и сообщить эту информацию, чтобы добиться более глубокого понимания этой проблемы. В будущих дискуссиях необходимо рассмотреть главный вопрос: с какого момента и при каких обстоятельствах нам грозит потеря эффективного контроля человека за применением силы?

Поскольку на многие вопросы ответа так и нет, МККК призывает государства не допускать применения автономных систем вооружения, если при этом невозможно обеспечить соблюдение международного гуманитарного права.

Автономное оружие

Нынешние беспилотники могут быть преобразованы в полностью беспилотные системы, которые отслеживают и уничтожают вражескую технику или живую силу. Причем такое оружие должно отличать своих от чужих, и несмотря на банальную постановку проблемы, сделать это довольно непросто.

Как такое оружие будет работать: бортовые системы слежения будут оценивать данные, полученные сенсорами устройства, и оценивать ситуацию исходя из всех этих данных. Человек тоже сможет управлять подобной системой, но она все же является автономной. Нынешние беспилотники управляются людьми, а не автоматами.

Ограничения: все те же трудности в различении своих и чужих. Кроме того, нужно научить устройство определять деревья, коров, других крупных животных, тракторы. Систему следует защитить от возможного взлома и проблем с получением сигнала. Вышедшая из строя контролирующая система может привести к "сумасшествию" аппарата, который начнет уничтожать всех.

Высокоэнергетические лазеры

Такое оружие сможет проникать в любую околоземную точку пространства, уничтожая то, что нужно. Защититься от подобного оружия на открытой местности практически невозможно, предупредить лазерную атаку тоже невозможно, скорость света все же позволяет разить без промаха все, что требуется.

Как работает оружие: большие зеркала будут отражать лазерные лучи в необходимых направлениях для поражения цели. Нагревание цели лучом высокой энергии будет приводить к мгновенному уничтожению (или если не мгновенному, то очень быстрому).

Ограничения: такая система требует гораздо больше энергии, чем выстрел пулей. Это значит, что нужно организовать приток энергии, и сделать это будет весьма непросто. К примеру, для работы лазера на Boeing 747 почти все внутреннее пространство самолета было забито оборудованием. Да и турбулентность берет свое - луч может попросту рассеиваться.

Космическое оружие

Космос действительно очень подходящая среда для размещения там оружия. Поражать можно любую точку планеты (или пространства) без особых проблем.

Как работает оружие: главная миссия такой системы - уничтожение баллистических ракет, выпущенных на Земле по различным целям. Чем именно система будет поражать ракеты - пока не решено.Вполне может быть, что в будущем на орбите будет размещено лазерное оружие, которое сможет уничтожать все или практически все.

Ограничения: технология еще не "дозрела" до создания подобных систем. Кроме того, время реагирования космического оружия должно быть очень малым, оружие должно быть быстрым. Лазерный луч тоже должен из чего-то создаваться, будь то электрическая энергия или энергия сгорания. В космосе и то, и другое - большая проблема.

Суб-орбитальные летательные аппараты

Запущенные обычным путем, такие аппараты могут быть значительно быстрее, чем сверх-звуковые самолеты. Суборбитальный летательный аппарат сможет доставить любой груз в любое место планеты менее, чем за два часа.

Как работает оружие: скорее всего, такой аппарат будет подниматься в воздух обычным самолетом. Затем будет срабатывать гиперзвуковая система летательного аппарата, и тот отделится от самолета-носителя. Такие аппараты могут служить либо как транспортное средство, либо как оружие.

Ограничения: технология еще недостаточно развита для создания таких устройств. Они должны быть очень прочными, очень быстрыми и очень легкими. Пока что реализовать все это будет очень непростой задачей.

Микроволновое оружие

Такие устройства вполне способны уничтожить большую часть армии, если люди не смогут выбраться из зоны действия оружия. Кстати говоря, такое оружие уже разрабатывается и даже действует, существуют прототипы.

Как работает оружие: двухметровая антенна и мобильный генератор продуцируют электромагнитные волны ультракороткого диапазона (95 гГц, 3 мм). Верхняя часть кожи как раз и будет подвержена воздействию таких лучей. Ужасную боль можно будет почувствовать уже через несколько секунд.

Кроме того нагреваться будет все металлическое, включая оружие, монеты, медальоны и прочее. Могут взрываться в результате нагрева снаряды и патроны. В общем, можете сами нарисовать картину разрушений.

Ограничения: в общем-то, таких ограничений практически нет, единственной проблемой является гуманизм. Кто хочет быть ответственным за поджаривание сотен и тысяч людей? Хотя, когда этого кого-то останавливало? В общем, такое оружие просто противоречит различным договоренностям, и его хоть и разрабатывают, но стараются не афишировать.

Электронные бомбы

Эти бомбы представляют собой сверх-активный источник микроволнового электромагнитного излучения, которые выводят из строя электронику, военные и гражданские коммуникации.

Как работает оружие: сильное электромагнитное излучение выжигает электронику, защиту против такого оружия установить очень проблематично - излучение чрезвычайно мощное.

Ограничения: влияние такого оружия зависит от местных условий, и его эффект предсказать довольно сложно. В общем, вроде как и мощное оружие, но довольно капризное.



Читайте также: