14:50:30 Понедельник, 17 июня
Дело Белозерцева Осторожно: мошенники НКО Здоровье ДТП в Пензе Нацпроекты Строительство Транспорт Рейтинги Угадай, кто на фото!

Human Rights Watch призывает запретить автономные летальные боевые комплексы

19:29 | 21.04.2015 | Аналитика

Печать

21 апреля 2015. PenzaNews. Международная правозащитная организация Human Rights Watch (HRW) выступила с призывом полностью запретить разработку и использование автономных летальных боевых комплексов (АЛБК) по всему миру. Об этом говорится в 38-страничном докладе «Не упустить из виду проблему: отсутствие ответственности за действия роботов-убийц», опубликованном HRW совместно с Гарвардской школой права в апреле 2015 года.

Human Rights Watch призывает запретить автономные летальные боевые комплексы

Фото: Wikipedia.org

Как напоминают авторы документа, АЛБК представляет собой новую ступень эволюции беспилотников, применение которых уже неоднократно вызывало критику правозащитников. Такие системы летального вооружения, неформально получившие название «роботы-убийцы», будут способны самостоятельно вступать в бой с конкретными целями без участия людей-операторов.

«Полностью автономные боевые системы еще не существуют, но технологии уже движутся в этом направлении. Прототипы подобных комплексов находятся в разработке или стоят на вооружении. В частности, в ряде стран установлены такие оборонительные системы, как израильский «Железный купол» или американские комплексы «Phalanx» и «C-RAM», запрограммированные на автоматический перехват ракет противника. Помимо этого, существуют прототипы самолетов, которые могут самостоятельно совершать межконтинентальные перелеты («Taranis», Великобритания) и производить взлет и посадку на морской авианосец в автономном режиме («X-47B», США)», — говорится в отчете.

При этом, по словам правозащитников, уже сейчас у АЛБК есть немало сторонников, которые положительно отзываются о ряде преимуществ «роботов-убийц», таких как быстрая скорость реакции; защита от гнева, страха и иных эмоций; возможность снизить потери среди военных. Однако, как отмечают представители HRW и Гарвардской школы права, у автономных летальных боевых комплексов имеются и существенные недостатки.

«Такое оружие сможет вступать в бой с целями без значимого вмешательства оператора. Многие сомневаются, можно ли доверять машине вопрос жизни и смерти человека», — подчеркивается в публикации.

Кроме того, с точки зрения авторов отчета, технологический прорыв в разработке автономных летальных боевых комплексов приведет к началу новой гонки вооружений и беззаконию группировок, под контролем которых окажутся «роботы-убийцы».

«После своей разработки АЛБК — машины, которые можно будет запрограммировать на неконтролируемое уничтожение населения или вражеского контингента — почти наверняка получат широкое распространение в неправовых государствах и среди неофициальных вооруженных группировок. По мнению ряда критиков, после появления «роботов-убийц» политики станут чаще прибегать к силовым методам разрешения конфликтов, поскольку они снизят смертность среди личного состава. При подобном развитии событий бремя войны будут нести уже не военные, а рядовые граждане», — пишут правозащитники и правоведы.

В то же время, как говорится в документе, неспособность боевых роботов испытывать эмоции является не только преимуществом, но и серьезнейшим препятствием при соблюдении норм закона и прав человека. Машина, полностью подчиняющаяся приказам извне, не обладает собственным суждением и лишена сострадания — главного «поведенческого предохранителя», позволяющего избегать жертв среди мирного населения и предотвращать преступные деяния.

Помимо этого, авторы доклада обращают внимание на то, что само существование АЛБК может вызвать ряд неразрешимых проблем юридического характера. Так, в силу своей самостоятельности «роботы-убийцы» не могут быть полностью приравнены к машинам и боевым орудиям, однако при этом они лишены тех качеств, которые присущи людям, и потому им не могут быть вменены в вину те или иные преступления.

«Существующие юридические механизмы не приспособлены для того, чтобы выносить вердикты по фактам неправомерного ущерба от действий полностью автономных летальных комплексов. Теоретически боевая машина способна совершать уголовно наказуемые деяния, ответственность за которые в конечном итоге не удастся возложить ни на кого. Автономное оружие не может нести ответственность за преступления, поскольку машина не способна совершать их преднамеренно», — констатируют правозащитники.

Они отмечают также, что боевой комплекс невозможно наказать за противоправное деяние и ожидать от этого какого-либо должного эффекта, поскольку это наказание никоим образом не повлияет на действия робота, лишенного сознания, в будущем.

Как считают представители Human Rights Watch и Гарвардской школы права, лицам, пострадавшим от АЛБК, будет крайне сложно привлечь к уголовной ответственности людей, прямо или косвенно связанных с созданием и использованием автономного вооружения, за поступки «роботов-убийц».

«Командиры и операторы не могут быть напрямую призваны к ответственности за действия полностью независимого оружия, за исключением тех немногочисленных случаев, когда есть возможность доказать конкретный злой умысел и намерение совершить преступление с помощью АЛБК», — говорится в докладе.

В нем отмечается также, что практически невозможно будет привлечь пользователей и производителей автономных летальных боевых комплексов и к ответственности за преступную халатность. В частности, сложное устройство «робота-убийцы» не позволит быстро обнаружить и зафиксировать наличие возможного дефекта в аппаратном или программном обеспечении летальной машины. К тому же, как подчеркивают авторы доклада, в ряде стран, в том числе в США, существуют препятствия юридического характера, которые почти непреодолимы для рядовых граждан.

«Вооруженные силы [Соединенных Штатов Америки] обладают юридической неприкосновенностью в отношении выбора военной политики, включая выбор оружия; боевых действий в военное время; а также действий, совершенных в другой стране. Аналогично и производители, выполняющие военный заказ, защищены от гражданских исков в отношении разработанного ими оружия, если все было сделано в соответствии с требованиями государства и без заведомого умысла ввести представителей Вооруженных сил в заблуждение. Также эти производители защищены от гражданских исков по актам агрессии в военное время», — поясняется в публикации.

В свою очередь сторонники автономного летального оружия предлагают множество способов исправить ситуацию. В частности, как упоминают авторы документа, обсуждается возможность введение юридической нормы, по которой лица, пострадавшие от действий «роботов-убийц», могли бы получить компенсацию за ущерб без доказательства вины конкретного лица. Однако, по их мнению, подобная мера не только не позволит добиться возмездия за причиненный вред, но и может создать ощущение безнаказанности и вседозволенности у тех, кто владеет АЛБК.

В итоге, по словам правозащитников, запрет на создание, производство и эксплуатацию полностью автономного летального боевого оружия будет наиболее эффективным и разумным шагом с технической, моральной и юридической точек зрения.

«Обязательный и полный запрет АЛБК обладает рядом значительных преимуществ по сравнению с официальными и неофициальными ограничениями. Его введение позволит избежать возможных жертв среди гражданского населения, поскольку запрет будет гораздо более всеобъемлющим, чем система ограничений. Он будет более эффективным, поскольку не потребует больших усилий для его соблюдения и воспрепятствует появлению подобного оружия. Введение запрета позволит клеймить позором тех, кто его нарушает, что создаст новый общепринятый стандарт и окажет сильное влияние даже на те государства, которые не присоединятся к нему», — отмечается в отчете.

Актуальное