Армия США публикует отчет о танках, которые умеют думать. Как быть с роботами-убийцами, принимающими решения самостоятельно?

Армия США публикует отчет о танках, которые умеют думать. Как быть с роботами-убийцами, принимающими решения самостоятельно?

На картинке выше - заброшенный роботизированный транспорт армии США. Нет более огорчающей идеи военной техники, чем вооруженная огнестрелом машина, сама решающая, кого убить. Эта тема затрагивается во всех фильмах о мрачном будущем, подливает масла в огонь протестов против дронов, даже если они все еще управляются людьми. Автономия для оружия (будь то турель или в будущем машина будет нажимать на спусковой крючок самостоятельно), определяет возможности будущих войн. Новый отчет Центра передовой безопасности Америки из Вашингтона новым "думающим" танком пытается спокойно ознакомить нас с мыслящими машинами.

Для лучшего восприятия, отчет раскладывает большой вопрос роботов-убийц на маленькие составляющие. Первой частью вопроса было само понятие автономии, когда дело касается машин.
Автономия сложное понятие, но в случае с машинами, наиболее важные аспекты вращаются вокруг того, чем руководствуется управляющий человек, и какое решение может принять машина самостоятельно. Каждый человек из Пентагона очень озабочен тем, чтобы в работе с роботами, принимающими решение об убийстве, не принимали участие те, кто просто хочет всучить роботу в руки смертельное оружие.
Техническим условием для работы в таких проектах, является принадлежность к "доверенному кругу", и самым важным является получение доступа в этот круг. Робот, который сканирует окружающую среду на наличие врагов, перед выстрелом запрашивает разрешение на огонь у человека, вместо самостоятельного решения о смертельном ударе. Это вопросы, о которых стоит подумать военным стратегам, дизайнерам роботов, и людям, пишущим новые правила войны, потому лучше cформулировать их заранее.
Авторы отчета, Пол Шарр и Майкл Хоровиц, затрагивают тему "круга доверия" еще глубже. Снаряд, который определяет цель, но спрашивает разрешения на огонь, это и есть человек в кругу доверия, а машина, которая сама находит цель, и уничтожает ее без разрешения, "человек вне круга доверия". Тем не менее, есть и среднее звено, например, предохранитель, который блокирует ракеты до тех пор, пока не заметит угрозу со стороны цели. Шарр и Хоровиц относят такие технологии к "кругу доверия". В таких случаях, оружие может стрелять без одобрения человека, но только имея на то основания.
Важным моментом в таких технологиях, как и автономии в целом, является степень свободы машины. Разбив автономию на категории, планировщики защиты, законодатели, и защитники прав человека, могут работать с разными категориями по-разному, особенно с опасными случаями, которые находятся "вне круга". Если военные роботы будут участвовать в войнах будущего, нам нужно разобраться с терминологией, чтобы четко понимать, какой робот что делает. "Введение в автономию в оружейных системах" не отвечает на все вопросы об опасностях со стороны автономных роботов, но предоставляет полезный словарь для всех, кто собирается дискутировать на эту тему в будущем.
Отчет можно почитать здесь.

По теме: Как одна ракета TOW превратила танк T-72 в гору щепок

По теме: Лазерное оружие ВМС США прошло испытание боем, подорвав лодку и маленький самолет (видео)

По теме: США приняли решение о распространении боевых беспилотников среди своих союзников

via

Система Orphus
comments powered by Disqus
 
Top