В Женеве завершились встречи экспертов в формате Конвенции по негуманного оружия.Они должны были решить судьбу так называемых боевых роботов – автономных вооружений, использующих искусственный интеллект для поражения целей. Однако никаких договоренностей достичь не удалось. Соединенные Штаты, Россия, Южная Корея, Израиль и Австралия были в числе того меньшинства стран, которой удалось заблокировать умиления в направлении полного запрета роботов-убийц.

Итак, хотя в мире еще нет рабочей автономной оружия, технология остается так сказать гуманной – ее можно разрабатывать и исследовать. Интересно, что США и Россия, по данным Стокгольмского института исследования мира (SIPRI), возглавляют список крупнейших экспортеров оружия. Южная Корея, Израиль и Австралия тоже не пасут задних в этом рейтинге – они входят в 20-ку крупнейших игроков рынка.

И хоть Китай (пятый экспортер оружия в мире, постоянный член Совбеза ООН выступает за запрет боевых роботов, перевесить ступени весов в свою сторону во время встреч ему не удалось. Сегодня запрет использования искусственного интеллекта на войне открыто поддерживают 26 стран. Другие уклоняются от четкой позиции. Франция и Германия (третий и четвертый экспортеры оружия) предлагают подписать документ, который бы закрепил главенство человека над искусственным интеллектом, но они скорее на стороне тех, кто хочет разрабатывать автономные боевые машины.

“Конечно разочаровывает то, что маленькая группка военных гигантов может сдержать волю большинства”, – прокомментировала исход встреч в Женеве координатор кампании “Остановите роботов-убийц” (Campaign to Stop Killer Robots) Мэри Верхем.

И, действительно, ситуация имеет вид заговора вооруженных магнатов-монополистов, учитывая, что США и Россия обычно не могут достичь хоть какого-то компромисса в важных вопросах. Взять хотя бы сирийское: Вашингтон и Москва взаимно заблокировалирезолюции друг друга после использования химического оружия в Сирии весной этого года. Удушающие газы и другие отравляющие вещества в военных целях, кстати, ранее запретила использовать именно Конвенция по негуманного оружия.

Следующая встреча по судьбе роботов-убийц состоится в Женеве в ноябре.

Почему хотят запретить автономное оружие

Сторонники запрета боевых роботов настаивают на том, что поле боя – не место для искусственного интеллекта. По их мнению, такие технологии несут огромную угрозу. Как минимум, сегодня не понятно каким образом машина будет отличать комбатантов (тех, кто непосредственно участвует в боевых действиях) от некомбатантов (обслуживающий персонал армии, который может использовать оружие только для самообороны) и гражданских вообще. Есть вероятность, что работы будут убивать раненых и тех, кто сдается в плен, что запрещено действующими правилами ведения войны.

Что вообще мешает работам перебить все стороны конфликта, даже владельцев такого оружия? Элементы искусственного интеллекта уже удачно используют в военной технике, ракетах; роботов привлекают для разведки, но последнее слово все равно остается за человеком. Автономная же оружие не будет подчиняться приказам командиров – на то она и автономная. Именно поэтому военные генералы разных стран скептически относятся к внедрению машин в ряды личного состава.

И еще один открытый вопрос – международный терроризм. Технология автономной оружия может попасть не в те руки, ее в конце концов могут хакнуть. Год назад президент России Владимир Путин заявил, что владыкой мира будет тот, кто станет лидером в разработках искусственного интеллекта. В случае с автономной оружием властелином мира станет тот, кто получит доступ к таким технологиям. А для этого, по сути, нужны только компьютер и ловкач, который пройдет сквозь системы защиты. Пентагон, между прочим, взламывали не один раз. Следовательно, гарантий, что автономное оружие останется неприкосновенной, никто не может дать.

Также непонятно, кто будет нести юридическую ответственность, если в результате функционирования автономной системы вооружения будет совершено военное преступление. “Инженер, программист, производитель или командир, который задействовал оружие? Если ответственность не может быть определена как того требует международное гуманитарное право, можно признать развертывания таких систем законным или этически оправданным?”, – отмечают в Международном комитете Красного Креста.

Интересно, что и ученые выступили за запрет боевых роботов. В июле этого года более двух тысяч ученых, в частности создатель Tesla и SpaceX Илон Маск и соучредители компании DeepMind, подписали документ, что не будут разрабатывать смертельную автономную оружие. То же самое сделал Google. Технологический гигант отказался от работы над проектом Пентагона Maven. А в 2017-м ряд ученых уже призвала ООН запретить создавать роботов-убийц.

Кстати, на повестке дня Организации Объединенных Наций вопросы искусственного интеллекта на войне появилось в конце 2013 года, но с тех пор практически ничего не изменилось. Только в этом году начались экспертные встречи в формате Конвенции по негуманного оружия. То есть понадобилось более четырех лет, чтобы прийти к какому-то более-менее практической плоскости.

Почему не хотят запрещать автономную оружие

Как бы банально это не звучало, но гонка вооружений – главная причина, почему не хотят запрещать роботов-убийц. Путин прав: кто первый получит автономную оружие, то начнет доминировать в мире. Официально эта причина озвучивается.

Самый главный аргумент противников запрета – невозможность разделить гражданские разработки искусственного интеллекта от военных. Мол, мы не будем запрещать кухонные ножи только потому, что их могут использовать террористы. И действительно отделить гражданские разработки искусственного интеллекта от военных практически не реально. Но сейчас речь идет о запрете этого оружия, которая сможет самостоятельно определять и атаковать цели. Таким может стать проект Maven, над которым работает Минобороны США совместно с компанией Booz Allen Hamilton (Google отказался от контракта).

Разработчики Maven хотят научить беспилотники анализировать изображения, в частности, со спутников и – потенциально – определять цели для атаки. Работать над проектом Пентагон начал еще в апреле 2017-го и надеялся получить первые рабочие алгоритмы до конца года. Но через демарш сотрудников Google разработка затянулась. По состоянию на июнь этого года, по данным Gizmodo, система могла различать элементарные объекты – машины, людей, но оказывалась совершенно ничтожной в сложных ситуациях. Если же запрет об автономной оружие все-таки будет принято на уровне ООН, проект придется свернуть.В Пентагоне же заявляют, что их разработка может спасать жизни, ведь ее можно запрограммировать на более точную и надежную работу, если сравнивать с людьми.

“Нужно понимать, что речь идет о технике, что не имеет образцов, которые бы работали.Представление о такие системы пока очень поверхностное, – отмечали накануне встречи в Женеве в МИД РФ. – По нашему мнению, международное право, в частности, гуманитарную отрасль, можно применить к автономных вооружений. Они не нуждаются в модернизации или адаптации под такие системы, которых еще не существует”.

Ну, и еще одна реальная, но не озвучена, причина – деньги. Сегодня рынок технологий военного искусственного интеллекта оценивают в более чем шесть миллиардов долларов. Но уже к 2025 году показатель увеличится втрое – почти до 19 миллиардов, утверждают аналитики американской компании MarketsandMarkets. Для крупнейших экспортеров оружия это неплохая мотивация, чтобы блокировать любые запреты развития роботов-убийц.

Прогресс не остановить

Сторонники запрета автономной оружия обращают внимание, что технологии развиваются очень быстро и искусственный интеллект в конце концов станет оружием – вопрос времени. Логика в их словах есть. Искусственный интеллект – неотъемлемая часть четвертой научно-технической революции, которая продолжается сейчас. Необходимо учитывать, что технический прогресс так или иначе связан с боевыми действиями. Третья научно-техническая революция продолжалась до середины 50-х годов XX века, то есть ее пик пришелся на период Второй мировой войны.

В 1949 году в Женеве приняли Конвенцию о защите гражданского населения во время войны. В послевоенный период также дополняли IV Гаагскую конвенцию 1907 года, которая определяла правила ведения войны. То есть ужасы Второй мировой стали катализатором этого процесса. Итак, правозащитники не хотят ждать Третьей мировой, чтобы обезопасить человечество от автономной оружия. Именно поэтому решить судьбу роботов-убийц необходимо сейчас, настаивают они.

По мнению экспертов Human Rights Watch использование боевых роботов противоречит декларации Мартенса – положения преамбулы Гаагской конвенции о законах и обычаях войны 1899 года. Иначе говоря, роботы-убийцы нарушают законы человечности и требований общественного сознания (положение подтвердили в IV Гаагской конвенции).

“Мы должны совместными усилиями ввести превентивную запрет на подобные системы вооружений, пока они не распространились по миру”, – убеждена старшая научная сотрудница отделения по проблемам оружия в Human Rights Watch Бонни Дохерті.

Что же, запретить роботов-убийц в этот раз не получилось. Прогнозируемо, встречи в ноябре также будут безрезультатными. Правда, почти все страны соглашаются – технологию нельзя пускать самотеком и боевым роботам нужен такой себе стоп-кран. Но до сих пор не понятно, будет ли у человечества время дернуть его, когда в том возникнет необходимость.