Завтра и послезавтра боевых роботов

Завтра и послезавтра боевых роботов

Одной из самых многообещающих отраслей военных технологий в текущее время является робототехника. К истинному времени уже сделаны автоматические аппараты, способные делать разные задачки. Правда, сегодняшние беспилотные самолеты и вертолеты, также наземные гусеничные машины, при всех их возможностях, все еще не могут работать на сто процентов автономно. Почти всегда автономность ограничивается некими действиями, которые не требуют, что именуется, огромного разума: перемещение в данный пункт, слежение за местом, поиск объектов, выделяющихся на общем фоне и т.д. Что касается решений о пт маршрута либо об атаке обнаруженной цели, то они пока принимаются оператором системы, т.е. человеком. Вполне автоматическая работа военных ботов пока остается «достоянием» научной фантастики, а ученые и инженеры на данный момент только что делают 1-ые уверенные шаги в этой области. Развитие робототехнических технологий может отразиться не только лишь на способностях автоматических систем, да и на иных сторонах людского общества.
В научной фантастике часто рассматривается суровый вопрос взаимодействия человека и бота, владеющего искусственным умом того либо другого уровня. Имеющееся состояние дел позволяет полагать постепенный переход этого вопроса в реальную жизнь. По этой причине уже на данный момент некие люди и публичные организации пробуют предвидеть предстоящее развитие событий и, если получится, сделать надлежащие меры. Не так издавна правозащитная организация Human Rights Watch (HRW) выпустила доклад, посвященный этой дилемме. В работе Losing Humanity: The Case Against Killer Robots («Теряя человечность: аргументы против роботов-убийц») рассматриваются перспективы внедрения вполне автономных боевых ботов, также препядствия, которые непременно, по воззрению создателей доклада, возникнут при их эксплуатации в критериях реальных конфликтов. Не считая того, в докладе рассматриваются некие юридические нюансы такового «прогресса».
Сначала создатели доклада «Теряя человечность» отметили тот факт, что все имеющиеся боты в той либо другой мере автономны, различается только уровень этой самостоятельности. Потому все боты с способностями самостоятельной работы, в том числе и боевые, условно разбиты на три группы: human in the loop (человек в системе управления), human on the loop (человек над системой) и human out of the loop (человек вне системы управления). В контексте боевых ботов такое деление предполагает последующие методы работы и уровни автономности: если человек-оператор «находится» в системе управления, то бот без помощи других находит цели, а человек подает команду на их ликвидирование. Два других типа боевых ботов могут без помощи других принимать решения и производить атаку, но концепция human on the loop предполагает возможность контроля со стороны человека и позволяет последнему в хоть какой момент скорректировать деяния бота по собственному усмотрению. Боты категории human out of the loop стопроцентно самостоятельны и не требуют какого-нибудь контроля человеком.

По воззрению служащих HRW, самую большую опасность в дальнейшем будут представлять боты третьей категории, на сто процентов автономные и неподконтрольные человеку. Кроме технических и моральных заморочек отмечены связанные с ними юридические вопросы. Посреди остального, при определенном развитии событий такие боевые аппараты могут очень воздействовать на весь вид боевых действий, в том числе и нарушая главные международные соглашения. Сначала сотрудники Human Rights Watch апеллируют к Женевским конвенциям, а поточнее к той их части, которая обязует разработчиков орудия инспектировать его на безопасность для штатского населения. В HRW считают, что производители боевой механизированной техники не интересуются этим вопросом и не проводят никаких проверок, что повлечет за собой утраты посреди штатского населения.

Основной предпосылкой к рискам, связанным с применением механизированных боевых систем, сотрудники HRW считают недостающий уровень развития многообещающих ботов. По их воззрению, боевой бот, в отличие от человека, не будет способен гарантированно отличить неприятельского бойца от мирного обитателя либо интенсивно сопротивляющегося противника от раненого либо пленника. Потому очень значительны опасности того, что боты просто не будут брать пленных и станут добивать покалеченых. Создатели доклада, по-видимому, придерживаются не самого наилучшего представления о способностях ботов грядущего и считают, что многообещающие боевые системы не сумеют по внешнему облику и поведению отличить вооруженного и интенсивно действующего противника от жестко либо удивительно ведущего себя мирного обитателя. Не считая того, эксперты-правозащитники отказывают ботам грядущего в способностях прогнозирования поведения противника. Другими словами, вероятна ситуация, когда желающий сдаться неприятельский боец, подняв либо выбросив орудие, пойдет навстречу боту, а тот некорректно усвоит это и штурмует его.

Прямым следствием отсутствия человечьих черт, при этом следствием небезопасным, в Human Rights Watch считают возможность использования ботов в операциях по угнетению народных свобод и прав человека. Правозащитники считают «бездушные машины» безупречным инвентарем для угнетения мятежей, репрессий и т.д., так как в отличие от человека бот не станет дискуссировать приказ и выполнит все, что ему укажут.

В HRW боятся, что соответствующей чертой боевых ботов без управления человеком станет отсутствие какой-нибудь ответственности за свои поступки. Если оператор дистанционно управляемого беспилотника нанес удар по мирным жителям, то за это с него спросят. Если же схожее грех совершит бот, то наказывать будет некоторого. Сам бот не является разумным существом, способным осознать сущность наказания и исправиться, а использовать взыскания в отношении военных, пославших его на задание, по воззрению служащих HRW – глупо, равно как и наказывать разработчиков аппаратной и программной части бота. В итоге этого боты могут стать красивым инвентарем для решения боевых задач самым отвратительным методом – с помощью военных злодеяний. В таком случае все вскрывшиеся факты можно будет свалить на бракованную конструкцию либо программный сбой, а подтверждение вины определенных людей будет практически неосуществимым. Таким макаром, чего страшатся правозащитники, никто не понесет заслуженное наказание за злодеяния.

Из-за больших рисков организация Human Rights Watch призывает страны отрешиться от разработки на сто процентов автономных боевых ботов и запретить такую технику на законодательном уровне. Что касается концепций human in the loop и human on the loop, то разработка схожих систем должна контролироваться и проверяться на предмет соответствия интернациональным нормам. Т.е. все ответственные решения всегда должен принимать конкретно человек, владеющий надлежащими познаниями и допусками, но никак не автоматика.

Судя по имеющимся тенденциям, далековато не все ведущие страны вполне согласны с докладом от HRW. К истинному времени уже сформировались предпосылки не только лишь к созданию, да и к активному применению очень автоматических систем. При этом в ряде всевозможных случаев их применение не только лишь не противоречит интернациональному гуманитарному праву, но даже в неком смысле помогает делать его нормы. В качестве примера таковой работы можно привести израильскую систему противоракетной обороны «Железный купол». Так как этот комплекс предназначен для перехвата неуправляемых ракет с маленький дальностью, методы его работы выполнены таким макаром, что большая часть операций делается автоматом. Не считая того, при соответственной команде операторов может быть автоматическое выполнение всего цикла перехвата, от обнаружения неприятельской ракеты до запуска противоракет. Благодаря этому удается уничтожать неприятельские «Кассамы» пока те не долетели до населенных пт. В итоге использования практически автономного бота Израилю удается сохранить жизни и здоровье собственных людей, также сберечь на восстановлении разрушенных построек.

2-ой резон в пользу продолжения развития автоматических «солдат» тоже имеет гуманитарные предпосылки. Применение огромного количества наземных боевых ботов дозволит отрешиться от живых бойцов и спасти их жизни. Если же бот в бою получит повреждения, то его можно стремительно отремонтировать либо списать на слом и поменять новым, вполне аналогичным старенькому. Ну и создавать схожую технику на порядки порядков проще и дешевле, чем выращивать и учить боец. Разумеется, что бот может оправляться в бой скоро после сборки, а человеку после рождения необходимо вырасти, обучиться простым способностям, освоить массу различной инфы и умений и только позже он сумеет обучиться военному делу. Таким макаром, обширное применение боевых ботов поможет уменьшить утраты живой силы. Не считая того, для обслуживания довольно огромного парка механизированных «солдат» пригодится сравнимо маленькое количество операторов, механиков и т.д. Так что в отношении подмены живых боец механическими выигрыш выходит двойным: сохраняются жизни и экономятся средства.

Насчет опасений правозащитников относительно лишней самостоятельности боевых ботов у ведущих государств уже издавна заготовлен ответ. Например, несколько лет вспять США выпустили свою стратегию развития военных автоматических систем до 2036 года. Америкосы первую очередь будут развивать т.н. подконтрольно самостоятельные системы. Т.е. боевые аппараты с возможностью автономной работы, но без права принятия суровых решений. В предстоящем планируется вводить в строй вооруженных сил и вполне самостоятельные машины, но 1-ые макеты схожей техники, способные по-настоящему взять на себя обязанности человека, появятся не ранее 2020 года. Так что в течение ближайших лет либо даже десятилетий на поле боя не появится огромного количества вполне автоматических ботов, не знающих жалости и пощады и способных только делать приказы. Все главные решения как и раньше останутся обязанностью человека.

В отношении придания ботам большей самостоятельности необходимо вспомнить одно достаточно увлекательное мировоззрение. Его сторонники считают, что из боевых систем необходимо исключать конкретно человека, а не автоматическую аппаратуру. В качестве подтверждения этого тезиса приводятся «недостатки конструкции» живых людей. Оператор, управляющий боевым роботом, в том числе и на сто процентов контролирующий все его деяния, может захворать, допустить ошибку либо даже сознательно пойти на какой-нибудь криминальный шаг. Согласно этой точке зрения, «слабым звеном» робототехнического боевого комплекса является конкретно живой человек-оператор, стопроцентно соответственный латинской пословице о характерных людям ошибках.

Непременно, в текущее время по полностью понятным причинам право на жизнь имеют обе точки зрения: как предлагающая не давать ботам свободу действий, так и говорящая о необходимости выведения из системы человека. Оба этих представления имеют свои плюсы и свои минусы. Навряд ли в последнее время закончится спор на предмет выявления более многообещающей и жизнестойкой концепции внедрения боевых ботов. Выяснить, кто прав, можно только одним методом: дождаться последующих событий в сфере развития боевой робототехники. Навряд ли военные ведущих государств мира станут выбирать нерентабельный и непростой путь развития многообещающего направления. Но на данный момент довольно тяжело делать какие-либо выводы. Скорее всего, в наиблежайшие годы сохранится имеющаяся тенденция. Дистанционно управляемая и ограниченно автономная техника продолжит свое развитие и будет интенсивно употребляться на практике. Тем временем в лабораториях будут создаваться кардинально новые аппаратно-программные комплексы, способные действовать стопроцентно без помощи других. Современное состояние дел в схожих проектах позволяет представить, что в течение ближайших лет всю ответственность за деяния ботов как и раньше станут брать на себя люди, а описанные в докладе Human Rights Watch трудности пока останутся предметом энтузиазма правозащитников, фантастов и ученых.


источник topwar.ru

Понравилась статья? Поделиться с друзьями:
Добавить комментарий
SQL - 46 | 0,107 сек. | 12.52 МБ