Близость Судного дня

Близость Судного дня 

Правозащитники испугались восстания машин

Интернациональная неправительственная организация Human Rights Watch вместе с Гарвардской школой права опубликовала доклад об угрозы использования вполне автономных боевых ботов и механизированных вооружений и призвала правительства всех государств отрешиться от их разработки. Доклад организации представлен на 50 страничках, но его сущность можно выразить одной фразой — самостоятельные боты будут убивать всех без разбора. Военные же как раз настаивают на том, что искусственный ум и боты позволят существенно понизить сопутствующий вред и число жертв посреди штатского населения.

Согласно докладу "Теряя человечность: Резоны против роботов-убийц" (Losing Humanity: The Case Against Killer Robots), приготовленному Human Rights Watch (HRW), на сто процентов автономные боевые боты либо системы вооружения будут сделаны и приняты на вооружение уже в наиблежайшие 20-30 лет. Их разработкой занимаются все более либо наименее на техническом уровне продвинутые страны, сначала США, больше других приблизившиеся к созданию самостоятельных дронов. Исключать человека из систем управления вооружением и военной техникой, по воззрению создателей доклада, нельзя, так как в данном случае будут нарушены сходу несколько положений интернационального гуманитарного права.

Законы военного времени

Проведя ряд исследовательских работ, HRW сделала вывод, что "боты сущность механизмы, снаряженные возможностью принимать мир вокруг нас и действовать в согласовании с программкой". Они все в той либо другой степени владеют автономностью, другими словами способны производить какие-либо деяния без вмешательства человека. Степень автономности у дронов может существенно отличаться зависимо от модели. Условно ботов можно поделить на три категории: "человек-в-системе-управления" (human-in-the-loop), "человек-над-системой-управления" (human-on-the-loop) и "человек-вне-системы-управления" (human-out-of-the-loop).

1-ая категория предполагает, что некоторая беспилотная машина может без помощи других обнаруживать и выбирать цели, но решение об их ликвидировании воспринимает только человек-оператор. Ко 2-ой категории относятся системы, способные без помощи других обнаруживать и выбирать цели, также принимать решения об их ликвидировании, но человек-оператор, выполняющий роль наблюдающего, в хоть какой момент может вмешаться в эту цепочку. В конце концов, в третью категорию HRW включила ботов, способных обнаруживать, выбирать и уничтожать цели вообщем без людского вмешательства.

Машина судного денька. В 1970-х годах в СССР была разработана система 15Э601 "Периметр", представляющая собой автоматический комплекс управления массированным ответным ядерным ударом. По официальным данным, "Периметр" отвечает за доведение боевых приказов до всех командных пт и пусковых установок стратегических ракет в случае повреждения прямых линий связи. По конспирологической неподтвержденной версии, "Периметр" является вариантом Машины Судного денька, способной в стопроцентно автоматическом режиме без вмешательства человека инициировать массированный ядерный удар в ответ на таковой же удар противника. В декабре 2011 года командующий РВСН Сергей Каракаев заявил, что система существует и стоит на боевом дежурстве. Считается, что аналогичной системой ответного ядерного удара располагают и США.

Исходя из убеждений интернационального гуманитарного права, конкретно последняя категория автономных боевых систем представляет самую большую опасность для штатского населения в зоне военного конфликта. В конце концов, большая часть интернациональных "законов войны" посвящена конкретно защите штатского населения от последствий военных действий. По оценке HRW, автономные боевые боты не только лишь не соответствуют требованиям интернационального гуманитарного права, но также могут спровоцировать последующие его нарушения либо даже совсем отказ от имеющихся конвенций и договоров.

Сначала применение механизированных систем с высочайшей степенью автономности нарушит главные положения Женевских конвенций о защите жертв интернациональных вооруженных конфликтов, вступивших в силу в 1950 году и дополненных 3-мя основными протоколами в 1977-м и 2005 годах. Так, статья 36 Протокола I к Женевским конвенциям просит, чтоб все страны "при исследовании, разработке, приобретении либо принятии на вооружение новых видов орудия, средств либо способов ведения войны" инспектировали их на соответствие нормам интернационального права.

Так, все создаваемые виды орудия должны на каждом из шагов разработки проходить проверку и оценку на опасность для штатского населения в случае их боевого внедрения. К примеру, по воззрению правозащитников, схожую проверку не проходили кассетные боеприпасы, неразорвавшиеся суббоеприпасы которых только повышали число жертв посреди мирного населения. К слову, для резвого обнаружения неразорвавшихся "бомбочек" саперами их красили в калоритные цвета, которые завлекали малышей и только повышали утраты штатского населения. На данный момент кассетные боеприпасы обустроены таймерами самоуничтожения и представляют не огромную опасность, чем рядовая авиабомба.

Не собираются страны проводить и адекватную оценку многообещающих ботов на соответствие интернациональному праву, считают в HRW. Не считая того, автономные боты будут нарушать не только лишь положения Женевских конвенций, да и требования Декларации Мартенса (представлена сначала 1900-х годов русским юристом Федором Мартенсом, легла в базу Конвенции о законах и обычаях сухопутной войны). Согласно этой декларации, "население и воюющие остаются под охраною и действием начал интернационального права, так как они вытекают из установившихся меж образованными народами обычаев, из законов человечности и требований публичного сознания".

В целом же, автономные боты будут представлять прямую опасность невоюющему либо выбывшему из военного конфликта популяции. По воззрению HRW, такие системы "не владеют человечьими чувствами" и не способны ассоциировать и сопоставлять деяния людей. И, так как боты не могут соболезновать, они будут убивать покалеченых и выбывших из боевых действий (сложивших орудие) врагов, хотя это запрещено Женевскими конвенциями.

При всем этом автономные боты, каким бы совершенным искусственным умом они ни обладали, не сумеют на сколько-либо высочайшем уровне рассматривать поведение находящихся перед ними людей. Как отмечает HRW, если для бойца-человека не составит труда отличить "устрашающего вида штатского" от "представляющего опасность участника боевых действий", то бот на это не способен. Не считая того, боты не сумеют предугадывать последствия тех либо других действий человека и, как следует, не смогут распознать перелом в настроении противника, если он при противоборстве боту захотит, к примеру, сдаться в плен.

Не считая того, отсутствие у ботов чувств также сделает их симпатичным инвентарем репрессий и установления диктатуры — дронам просто не придет в "голову" бунтовать против беспощадных приказов "начальства".

В конце концов, при широком использовании автономного вооружения категории "человек-вне-системы-управления" нереально будет установить виноватого в случае смерти мирного населения. Предположительно, ответственность в таких случаях можно было бы возложить на офицера, принявшего решение об использовании бота, программера, производителя либо даже самого бота. Все эти варианты, по оценке HRW, неприемлемы. В противоправных и ожесточенных действиях "будет трудно и нечестно" обвинить офицера, программера либо производителя, а наказание бота представляется и совсем абсурдным. Таким макаром, жертвы военных действий лишатся легитимного права на правосудие.

На основании всех этих резонов HRW в собственном докладе призывает правительства всех государств мира на законодательном уровне запретить разработку, создание и внедрение автономных ботов и систем вооружения, также кропотливо оценивать все создаваемые технологии, которые так либо по другому могут быть применены при конструировании самостоятельных дронов. Не считая того, разработчиков робототехники и вооружений HRW призвала кропотливо инспектировать свои проекты на соответствие нормам государственного и интернационального гуманитарного права.

Без человека

Меж тем, создание автономных механизированных систем считается правительствами многих государств приоритетным направлением. Так, в конце 2010 года министерство обороны США обнародовало "План развития и интеграции автономных систем на 2011-2036 годы". Согласно этому документу, число воздушных, наземных и подводных автономных систем будет существенно увеличено, при этом перед разработчиками ставятся задачки наделить эти аппараты "поднадзорной самостоятельностью" (все деяния держит под контролем человек), а в итоге — и "полной самостоятельностью". При всем этом ВВС США считают, что многообещающий искусственный ум в процессе боя будет способен без помощи других принимать решения, не нарушающие законодательства.

Правда, Пентагон при всем этом отмечает, что в обозримом будущем при применении автономных систем решение о применении орудия и выборе целей будет оставаться под контролем человека. Аналогичной позиции держится и министерство обороны Англии, в 2011 году объявившее, что страна не заинтересована в разработке полностью самостоятельных механизированных систем. По оценке HRW, такие заявления являются хвалебными, но недостающими — в дальнейшем взоры военных ведомств на самостоятельность ботов могут кардинально поменяться.

Сами же военные убеждены, что боты — не зло, а благо. А именно, они позволяют не подвергать угрозы жизнь боец, которых на поле боя полностью и на сто процентов поменяют машины. Не считая того, в итоге применение серийных автономных систем дозволит сберечь значимые средства на страховании, мед обслуживании, обеспечении, обучении и переподготовке проф военных. С массовым приходом боевых ботов вооруженные силы можно будет существенно уменьшить, уделив основное внимание только подготовке техников и операторов.

Утраты ботов в процессе войны можно восполнить созданием новых систем, взамен выбывших из строя, — обеспечить же резвое "создание" боец в подходящих количествах просто нереально. В конце концов, по утверждению военных, конкретно боты и механизированные вооружения позволят существенно уменьшить сопутствующий вред и число жертв посреди мирного населения. Так, в министерстве обороны США убеждены, что в цепочке роботозированных систем слабеньким звеном является конкретно человек — оператор может не выспаться, утомиться либо захворать, что во много раз наращивает возможность роковой ошибки.

При всем этом внедрение в ботах современных систем разведки, наблюдения и рекогносцировки таких устройств, как датчики высочайшей точности, массивные радары, камеры, сонары, лазерное оборудование, прецизионные механизмы, дозволит исключить возможность, к примеру, попадания снаряда либо бомбы в не тот объект, который был намечен вначале. "Собственных" боты не тронут — не позволят системы "свой-чужой", которые к слову, уже внедряются в разрабатываемую экипировку "боец грядущего" в США, Франции, Германии и Рф. Одним словом, эталоном военных становятся битвы ботов с роботами в отдаленном будущем.

Предпосылок к созданию вполне автономных систем, по оценке HRW, уже огромное количество. Так, современные зенитные ракетные комплексы могут действовать в на сто процентов автоматическом режиме. К примеру, такими качествами владеют южноамериканские комплексы Patriot, русская С-400 либо израильский "Металлический купол". В июле 2010 года Южная Корея начала располагать на границе с КНДР патрульных ботов, способных вести наблюдение за приграничными территориями, обнаруживать нарушителей и, с одобрения оператора, открывать по ним огнь.

В США ведется разработка палубного беспилотного летательного аппарата X-47B, который, хотя и не будет без помощи других использовать вооружение, но сумеет без вмешательства человека дозаправляться в воздухе и создавать дозаправку других летательных аппаратов, включая и пилотируемые, также входить на посадку на палубу авианосца, взмывать, вести разведку и распознавать цели. И все это он будет делать резвее и поточнее человека.

На самом деле ученым и производителям осталось только создать надежную самообучающуюся систему с искусственным умом, которая бы соединила имеющиеся технологии. Тем паче что искусственные нейронные сети уже без помощи других научились распознавать на изображениях котов, людские лица и части тел.

И резонов в пользу сотворения на сто процентов автономных систем, по воззрению военных, существует больше, чем против. К примеру, подразумевается, что многообещающий южноамериканский истребитель шестого поколения будет беспилотным гиперзвуковым аппаратом. Беря во внимание, что на скоростях полета более 5 тыщ км в час и при большенном объеме поступающих данных (а их беспилотники уже сейчас дают больше, чем способен обработать человек) оператор просто не сумеет впору принимать нужные ситуационные решения, выходит, что эту работу придется переложить на "плечи" искусственного ума.

Но при всем этом открытым остается принципиальный вопрос: этично ли передавать право на решение вопросов о жизни и погибели в критериях боя искусственному механизму? Ведь, как ни крути, убийство человека человеком смотрится действием более логичным (либо по последней мере более чувственно оправданным), чем убийство человека машиной. В первом случае убийству можно будет приискать какое-то рациональное разъяснение; во 2-м, и правда, впору гласить о пришествии Апокалипсиса.


Василий Сычев

Понравилась статья? Поделиться с друзьями:
Добавить комментарий
SQL - 46 | 0,107 сек. | 12.83 МБ