Роботы – отличное изобретение человечества. Они способны помочь людям с выполнением особенно трудной работы. А ещё они могут работать там, где человеку, связанному ограничениями его тела, без помощи технических средств не выжить, например, в Марианской впадине или на Луне. Однако без должного контроля роботов можно использовать для гораздо менее благородных задач. Именно этого опасается всё большее количество учёных-робототехников.

Campaign_to_stop_killer_robots

Летом этого года некоммерческая организация Future of Life Institute разместила на своём сайте открытое письмо. Его подписали более тысячи специалистов, учёных и изобретателей, специализирующихся на искусственном интеллекте и робототехнике. Они высказывают крайнюю озабоченность тем, что создание боевых систем, полностью автономных и способных принимать решение относительно открытия огня без помощи человека, уже практически завершено. Если оборонные предприятия сосредоточатся на этом направлении деятельности, то появление таких устройств не только на бумаге произойдёт в ближайшем будущем.

Авторы письма призывают правительства всех государств отказаться от создания полностью автономных боевых систем, так как это может привести к самым непредсказуемым последствиям. Например, их появление на чёрном рынке приведёт к тому, что ими обзаведутся террористические организации. Техника, обладающая искусственным интеллектом, превосходно справится с заказными убийствами и террористическими актами в любых точках земного шара. При этом её создание не требует редких и дорогостоящих материалов, как, например, производство ядерного оружия, достаточно лишь обладать технологией.

И совсем недавно в ООН обратился профессор одного из Великобританских университетов, специалист по робототехнике и искусственному интеллекту Ноэл Шарки. Он также является сооснователем комитета, призванного контролировать роботизированные вооружения. Учёный призвал Организацию Объединённых Наций как можно быстрее подготовить законодательную базу для запрета применения автономных боевых роботов. По его словам, многие страны сейчас занимаются испытаниями в этой области и близки к созданию подобных систем. Например, американская Northrop Grumman активно развивает проект беспилотного истребителя-бомбардировщика, который будет самостоятельно применять оружие.

Zenitno-artilleriystiy_kompleks_Phalanx

Правительства некоторых стран, особенно США и Великобритании при этом призывают не воспринимать призывы учёных слишком буквально. Запретить, по их мнению, следует лишь перспективные разработки. Те же системы, что существуют уже сейчас, например, зенитно-артиллерийский комплекс Phalanx, должны оставаться легальными.

Ноэл Шарки надеется, что ООН рассмотрит вопрос как можно скорее. Чем больше времени будут длиться дебаты, тем большее количество образцов самой разной техники, оснащённой искусственным интеллектом, окажется в распоряжении военных. Часть из этих моделей может даже успеть поучаствовать в боевых действиях. Вероятно, всё это приведёт к самым печальным последствиям. Даже казавшиеся недавно совершенно нереальными сюжеты книг и фильмов типа «Терминатор 2: Судный день», где умные машины принимают решение уничтожить человечество, могут оказаться намного ближе к реальности, чем нам того хотелось бы.

Terminator