Боевые роботы пугают экспертов

Боевые роботы пугают экспертов
Неправительственная организация Human Rights Watch (HRW) объявила о намерении сделать интернациональной коалицию, которая будет стараться заключить глобальный интернациональный контракт, налагающий всесторонний и упреждающий запрет на вооружения с искусственным умом еще до того, как они будут сделаны. К компании за запрет военных «роботов-убийц», которая стартовала в столице Англии, уже присоединились разные негосударственные организации, которые ранее участвовали в кампаниях по запрету кассетных боеприпасов, противопехотных мин и ослепляющих лазеров.

В отличие от телеуправляемых танков и танкеток, торпедных катеров, которые еще в 1930-х годах испытывались в Русском Союзе, стопроцентно автономные боевые боты, как молвят активисты, будут владеть рядом прирожденных недочетов, которые сумеют сделать их смертельно небезопасными для населения земли. Самые всераспространенные стопроцентно автономные системы из прошедшего, такие как Phalanx, которая сбивала летательные аппараты либо ракеты, приближающиеся к южноамериканским боевым кораблям, обладали довольно узенькой специализацией, своей нишей и фактически не могли сработать от каких-либо случайных причин либо по штатскому популяции. 

Но новое поколение боевых ботов, например, на сто процентов автономный БПЛА Harpy («Гарпия») из Израиля, уже еще опаснее. Пока «Гарпия» отыскивает и уничтожает в стопроцентно автоматическом режиме только радары, стреляя по ним ракетами в режиме «выстрелил-забыл». Но такие БПЛА презентабельны для армий всего мира и не только лишь по той причине, что их нельзя взломать и высадить на собственный аэродром, как, предположительно, поступили в 2012 году иранские военные с южноамериканским дроном. 
Боевые роботы пугают экспертов

Самое главное тут – это дешевизна эксплуатации боевых ботов. Так, например, телеуправляемый беспилотник нуждается не только лишь в дорогостоящем пт управления, в каком находится отлично приготовленный спец, работающий посменно, да и в помехозащищенной связи. На самом деле, в случае БПЛА маленьких размеров это становится главной расходной статьей. Ликвидация данной статьи расходов дозволит странам создавать летающих боевых ботов тысячными сериями без значимого роста издержек по их эксплуатации. 

«Кампания за запрет убивающих роботов» считает, что основная неувязка состоит в том, что такие машины еще неидеальны. Они не в состоянии отличить мирного гражданина от террориста, человека одной национальности от другой (хотя справедливости ради нужно сказать, что люди также этим грешат). В то же время в современном мире войны нередко ведутся в таких местах, где всего один случайный выстрел может привести к эскалации насилия. В организации в особенности обеспокоены разработками Южной Кореи, которая делает специального бота для патрулирования границы с КНДР. Одна ошибка такового бота способна привести к суровому вооруженному конфликту. Потому появляется резонный вопрос: стоит передавать дело войны и мира на трибунал программного обеспечения, адекватность и надежность которого не получится проверить без человечьих жертв. 

При всем этом в мире есть вопросы и посерьезнее корейского конфликта. Широкую известность получил случай озари 1983 года, когда русская автоматическая система предупреждения о ядерном нападении «Око» выдала серию неверных сигналов о запусках США баллистических ракет. Только вмешательство оперативного дежурного, находящегося на КП «Серпухов-15», предупредило нанесение «ответного» удара. Проанализировав «пуски» МБР (несколько попорядку из одной точки), подполковник поразмыслил, что возможный противник не так туп, чтоб таким макаром начинать войну и подставляться под ответный удар неподавленных русских ядерных сил. Чем могла окончиться данная ситуация, если б система «Око» была стопроцентно автономной?
Тут речь шла о вероятной ядерной войне, но есть и куда более житейские примеры. Например, в 2007 году в армии ЮАР произошел катастрофический инцидент жертвами которого стали 9 военнослужащих, еще 14 человек получили разные ранения. Виновником катастрофы стала автоматическое противовоздушное орудие швейцарско-немецкого производства Oerlikon GDF-005. Данное орудие обустроено активным и пассивным радарами, лазерной системой целеуказания и может вести огнь по резвым низколетящим целям, таким как вертолеты, самолеты, крылатые ракеты и БПЛА. В автоматическом режиме употребляются две 35-мм скорострельные пушки. 

В процессе учений данная установка пару раз выходила из строя, пока ее не решили закрепить вручную с помощью троса и железных крепежей. Но в некий момент крепежи не выдержали, а стволы установки принялись рассылать полукилограммовые снаряды вправо и влево. Орудие замолкло, только израсходовав весь боезапас – 500 снарядов. Тогда представитель армии ЮАР бригадный генерал Квена Мангоп сказал, что предпосылки сбоя остались неопознаны. По его словам, может быть, неувязка могла иметь механический нрав. Но ряд профессионалов указывали на компьютерный сбой, в данном случае установить причину катастрофы не представляется вероятным. 

Все это смотрится еще больше удручающе на фоне все почаще появляющихся сообщений о разработке еще одного боевого бота. Не так издавна ВВС США провели испытательные полеты ударного беспилотника X-47B, взлетающего с палубы авианосца и способного выполнить боевую задачку без помощи человека. При всем этом уже довольно издавна есть ракетные системы ПВО типа «Патриот», которые в состоянии распознать цель и открыть огнь вполне в автоматическом режиме. Для сотворения вполне автономной боевой машины осталось сделать всего пару шажков. Такие боты могут взять на себя многие людские функции, навечно изменив наши представления о ведении войн. 
В текущее время в лаборатории Института технологии в Атланте, доктором Хенриком Кристенсеном ведутся тесты бота, который предназначен для нахождения повстанцев, которые действуют партизанскими способами. Данные исследования финансируются известной оборонной компанией BAE. Главной целью данного проекта является создание бота, который способен произвести исследование местности, на которой укрылся противник, нанести места его вероятного расположения на карту и собрать другую информацию, которая посодействовала бы при планировании военных операций. Такие боты не несут какого-нибудь вооружения, их основная цель – сбор развединформации. 

Спец по будущим военным технологиям Пит Сингер, работающий в Институте Брукингса в Вашингтоне, считает, что возникновение боевых ботов на поле боя подымет много базовых вопросов. Временами в истории боевой техники наступает таковой момент, когда возникает вещь, приводящая к полному изменению ситуации, отмечает эксперт. Например, так уже было с изобретением пороха, возникновением пулемета, ядерного орудия, компов. Боевые боты также могут стать революционной технологией. При всем этом их возникновение не значит, что поменяется все – начиная с боевой стратегии и заканчивая вопросами права, этики и политики. 

Американка Джоди Уильямс, которая в 1997 году получила Нобелевскую премию мира за компанию кампании в пользу запрета противопехотных мин, считает, что боевые боты, которые на данный момент создаются, с течением времени могут перевоплотиться в смертельно опасное орудие. По ее словам, такие нейтральные для людского уха определения как «автономные боевые системы» довольно обманчивы. По ее словам, логичнее именовать их роботами-убийцами, потому что убийство людей их основная задачка.
В то же время Рональд Аркин доктор из Института технологии в Атланте считает по другому. Аркин является создателем концепции боевой системы, которая управляется так именуемым этическим контролером. Такие боевые боты запрограммированы так, что должны следовать правилам ведения боевых действий и принципам интернационального права. По словам Рональда Аркина, все кричат и ужасаются: «Роботы-злодеи, роботы-убийцы!». Но в текущее время ужасные вещи совершают сами люди, действующие на поле боя. Твердость была спутником всех войн на планетке, отмечает доктор. Аркин считает, что внедрение технических средств дозволит уменьшить количество утрат посреди штатского населения, которое оказывается в зоне конфликта. 

В текущее время кроме США еще приблизительно 76 государств мира имеют собственные программки по созданию боевых ботов, гласит ученый. В наши деньки за пару сотен баксов уже можно приобрести БПЛА, который еще 2 года вспять был засекречен. Такие технологии распространяются довольно стремительно и в глобальных масштабах. Примером этому может служить внедрение БПЛА, которые используются для нанесения точечных ударов по избранным заблаговременно объектам, в том числе и людям. В текущее время внедрение беспилотных ударных аппаратов в Афганистане и Пакистане уже вызывает дебаты в мировом обществе. С распространением боевых ботов такие дебаты безизбежно перейдут в область этических принципов их использования. 

Так может быть боевые боты не необходимы совсем? Зачем их выпускают? Все дело в том, что с возникновением массовых армий эффективность действий раздельно взятого военнослужащего быстро свалилась. Бойцы какого-либо 5-го Восточносибирского полка во время Русско-японской войны, удерживая Цзинчжоу, попадали в противника приблизительно 1 раз из нескольких 10-ов винтовочных выстрелов. В то же время уже в Первую и Вторую мировые войны среднее количество выстрелов на одно попадание подросло до 10 000 – 50 000. Если совершенно просто – большая часть боец в массовых армиях просто не умели стрелять, а более 95% командиров больших армий мира вообщем никогда не лицезрели, чтоб их подчиненные воспользовались прицелами на собственных винтовках. 
Схожая ситуация стала наблюдаться и в артиллерии и других родах войск. Так на Восточном фронте на каждого убитого бойца Вермахта СССР растрачивал приблизительно 100 артиллерийских снарядов и мин. С таковой же «эффективностью» утилизировали свои боеприпасы южноамериканские военнослужащие во Вторую мировую и во время Вьетнамской войны. Численный рост боец и резвый прогресс военной техники в ХХ веке сопровождался понижением обученности тех, кому это орудие доверяли. 

В то же время автономные боевые боты уже на данный момент стреляют так отлично, как им позволяет ПО, погода и орудие. А это означает, что их роль в боевых действиях, после окончания доводки ПО, приведет к очень огромным потерям личного состава той стороны, которая будет лишена таких ботов. Представить результат такового противоборства довольно просто. Если на данный момент армии западных государств не в состоянии на долгое время задерживаться ни в Ираке, ни в Афганистане, потому что их политическое управление с треском покинет свои посты при значимых боевых потерях, то после внедрения боевых ботов продолжительность пребывания оккупационных контингентов в разных регионах мира станет фактически неограниченной. Жертвы государств, армии которых обустроены такими роботами, фактически вполне закончат быть боевыми, они будут сравнимы только с количеством трупов, оставляемых терактами – единственным орудием, которое остается в руках боевиков. 

Создатель Сергей Юферев

источник topwar.ru

Понравилась статья? Поделиться с друзьями:
Добавить комментарий
SQL - 46 | 0,376 сек. | 12.51 МБ