Закончатся ли войны, если на смену людям придут роботы? Или одновременно с появлением полностью автономных машин для убийств придет конец человечеству? Некоторые американские военные считают, что за роботами — будущее, а людей надо оградить от агрессии. Как одно вяжется с другим, могут объяснить, вероятно, лишь они.
Предлагаем вашему вниманию перевод материала Сидни Дж. Фридберга — мл., опубликованного на сайте Breaking Defence. Статья передает спор двух генералов, придерживающихся разных точек зрения.
Главный покупатель оружия для Пентагона Фрэнк Кендалл [занимает должность замминистра обороны США по закупкам, технологиям и логистике. — Прим. Onliner.by] опасается того, что страна может стреножить сама себя, если будет настаивать на контроле оружия людьми, а противник отдаст управление им роботам. Кендалл также считает чрезмерно оптимистичными заявления замминистра обороны США Боба Ворка. По убеждениям последнего, люди и машины смогут сообща справиться с роботами, которые функционируют самостоятельно.
Подобные идеи нервируют военное руководство, которое быстро отреагировало, высказав свою озабоченность тем, что роботы смогут атаковать гражданское население самостоятельно. «Когда мы пересечем эту черту? И кто хочет пересечь ее первым? Это по-настоящему сложный этический вопрос», — заявил ранее заместитель председателя Объединенного комитета начальника штабов Пол Селва, назвавший этот феномен «дилеммой Терминатора». Но также это и фундаментальный вопрос эффективности на поле боя.
«Даже в обычном конфликте мы стремимся избегать жертв среди невинных гражданских лиц, — отметил Кендалл. — Я не ожидаю от наших противников подобного отношения и понимаю преимущества, которые появятся у них в этом случае, — речь идет о более оперативном принятии решений». А скорость здесь имеет решающее значение: будет ли победа или поражение.
Кендалл напомнил об израильском экспериментальном оружии, за которым ему удалось недавно понаблюдать. Система наведения танка определяла источник огня и в автоматическом режиме вела прицеливание по нему. Однако затем ожидала команды от человека, который должен был нажать на кнопку. «Но ничто не мешает сделать так, чтобы система открыла автоматический огонь», — заявил Кендалл на конференции Army Innovation Summit. Он отметил, что израильская армия проводит эксперименты с полностью автономными системами. «Другие уже двигаются в этом направлении. Они не собираются ограничивать себя так, как это делаем мы. Если мы не отступим от взятого курса, то окажемся в проигрышной ситуации», — добавил замминистра.
«С точки зрения Боба Ворка, в ближайшем будущем люди и машины сообща смогут принимать более эффективные решения, нежели машины самостоятельно, — продолжил Кендалл. — Вероятно, он прав, и есть примеры того, что он прав. Правда, я не знаю, как долго сохранится подобное положение вещей».
Принимая во внимание то, что компьютеры становятся эффективнее, «все играет против нас», считает чиновник.
Отказаться от разработки военных роботов — значит проявить слабость в будущем.
В то время как Ворк прав, указывая на важность так называемой «Третьей компенсационной стратегии» (Third Offset Strategy), которая подразумевает технологическое преимущество Америки, Кендалл не уверен в превосходстве тандема «человек — машина» над полностью автономными системами. Комментируя то, что программное обеспечение легко расходится по миру, он заявил: «Боюсь, что кто-то другой добьется сопоставимой автономности и окажется куда более безжалостным, нежели мы. Думаю, в итоге это станет нашей слабостью».
Это не теоретический вопрос, а такой, который требует немедленного ответа. «Наша политика заключается в том, что любая смертоносная система должна контролироваться человеком, — отметил Кендалл. — Но дать определение этому механизму не так просто. Представьте, что вы отправляете ракету с „умным детектором“, который анализирует площадь в несколько сотен квадратных метров, пытаясь обнаружить там бронированное транспортное средство, и затем атакует его. Означает ли это контроль со стороны человека или нет?»
Доверите ли вы компьютеру определять, является ли незнакомец другом или врагом, зная, что алгоритмы не только позволяют себе ошибки, но и ошибаются в ситуациях, в которых человек допустить неточность попросту не может? Кендалл привел любимый пример руководителя DARPA Арати Прабхакар: совершенная программа машинного зрения после анализа картинки с ребенком, держащим зубную щетку, определяет его как «мальчика с бейсбольной битой». Проблема не покажется такой смешной, если программа перепутает ребенка, держащего палку, с вооруженным автоматом террористом.
Трое высших руководителей армии, среди которых два четырехзвездных генерала [высшее воинское звание высшего офицерского состава. — Прим. Onliner.by], дали вежливый отпор Кендаллу. «Американский солдат в первую очередь защищает людей, и мы не можем с легкостью воспринимать сопутствующие потери, — заявил Патрик Мерфи, представитель военного ведомства и ветеран войны в Ираке. — Мы также отдаем себе отчет в том, что наши конкуренты и террористы не придерживаются аналогичных ценностей. Но мы не собираемся идти на компромисс».
«Если у вас есть артиллерия, происходит выстрел и все — снаряд становится „автономным“»
«Мы все еще придерживаемся определенных правил ведения войны, — добавил начальник Штаба материально-технического обеспечения армии США Деннис Л. Виа. — И они все еще включают в себя человеческое измерение».
По мнению генерала Дэвида Перкинса, главы командования по подготовке кадров и проведению научных исследований, армия не должна отказываться от принятой системы сдержек и противовесов касательно сопутствующего ущерба. «Автономные системы не являются чем-то совершенно новым: если у вас есть артиллерия, происходит выстрел и все — снаряд становится „автономным“. Если у него на пути окажется школьный автобус, я уже ничего не смогу поделать», — пояснил Перкинс свою точку зрения. Он считает, что при появлении оружия, которое станет на порядок более автономным, придется решать аналогичные проблемы.
По общему признанию, их решение займет длительный промежуток времени. С учетом наступления эры роботов придется адаптироваться под обстоятельства. Это может выглядеть следующим образом: хорошо обученные люди с высокими этическими стандартами будут анализировать зону боевых действий и, опираясь на разведывательные данные, определять местоположение гражданских лиц и тех, кто принимает непосредственное участие в боевых действиях, включая дружественные единицы. Затем на основании этой информации они будут принимать решение о мощности применяемого оружия, оценивать вероятность промаха, а затем составлять правила ведения боевых действий.
Правила ведения боевых действий — это, по существу, набор правил вида «если, то», как и в компьютерных алгоритмах. Если мы можем обучить человека таким правилам и сделать из него солдата, то, вероятно, это же можно сделать и с компьютером, роботом. Компьютерные алгоритмы могут допускать ошибки, не свойственные людям, — проблема «мальчика с бейсбольной битой», например, — но их осуждение [вероятно, внутреннее. — Прим. Onliner.by] не будет омрачено гневом, ужасом, депривацией сна. То есть можно будет избежать ошибок, которые постоянно допускают люди.
Представитель Пентагона Марк Райт позже уточнил, что Кендалл не пытается спустить с цепи роботизированных псов войны [это отсылка к строке из пьесы Шекспира «Юлий Цезарь»: «Cry 'Havoc!', and let slip the dogs of war». — Прим. Onliner.by]. «Фрэнк Кендалл никогда не рекомендовал пересматривать отношения департамента и не озвучивал его намерение вносить изменения в существующие ценности, — написал Райт в электронном письме. — Он лишь обсуждал вопрос крайнего внимания США к обеспечению наименьшего количества жертв со стороны гражданского населения. Также он указывал на наши слабые стороны и потенциальное преимущество противника, использующего автоматизированные системы, которые, в свою очередь, повышают боевые возможности его оружия, игнорируя безопасность невинных. Мы должны принимать это во внимание».
Несомненно, в развитии робототехники существует огромный потенциал, который выражается в возможности спасать жизни и забирать их. Кендалл не хочет, чтобы мы игнорировали это. «Мы до сих пор отправляем людей с винтовками на поиски врага. До сих пор. Зачем? Почему?» — вопрошает он. По его словам, давно пора отказаться от подобного стиля ведения войн, призвав в ряды роботов. «Автономность грядет, развиваясь по экспоненте, и остановить ее невозможно», — считает замминистра обороны США.
Принтеры и МФУ в каталоге Onliner.by
Читайте также:
Перепечатка текста и фотографий Onliner.by запрещена без разрешения редакции. nak@onliner.by