Риски искусственного интеллекта при проектировании оружия будущего

Риски искусственного интеллекта при

На протяжении десятилетий военные использовали автономное оружие, такое как мины, торпеды и ракеты, которые действуют на основе простой реактивной обратной связи без контроля человека. Смертоносный военный арсенал теперь дополнен автономным оружием, работающим на основе искусственного интеллекта. Мы вступаем в новую эру войн, в которой такое оружие представляет собой конкретную угрозу научному прогрессу и фундаментальным исследованиям, предупреждает Канака Райан, доцент кафедры нейробиологии Института Блаватника Гарвардской медицинской школы.

Три основных риска

Оружие на основе искусственного интеллекта может привести к геополитической нестабильности, а его развитие может повлиять на невоенные исследования в академических кругах и промышленности – такова предпосылка статьи, представленной Райан и ее коллегами на Международной конференции по машинному обучению в 2024 году.

Исследователи из Гарварда уделили особое внимание таким вопросам:

  • как это оружие может облегчить странам участие в конфликте;
  • как невоенные научные исследования в области искусственного интеллекта могут подвергаться цензуре или участвовать в поддержке разработки этого оружия;
  • как военные могут использовать автономные искусственный интеллект в технологиях для уменьшения или перенаправления ответственности человека за принятие решений.

Большая часть нынешних разработок оружия на основе искусственного интеллекта направлена ​​на то, чтобы избавить солдат-людей от опасности, что само по себе является гуманным поступком. Однако если в наступательной войне погибнет мало солдат, это ослабит связь между войной и человеческими жертвами. Политически становится легче начинать войны, что, в свою очередь, может привести к большему количеству смертей и тотальным разрушениям, — говорит Райан.

Поскольку автономные технологии на основе искусственного интеллекта становятся центральными в планировании национальной обороны во всем мире, мы можем ожидать аналогичных ограничений в невоенных исследованиях. И это будет препятствовать фундаментальным исследованиям в области искусственного интеллекта, ценным гражданским применениям в области здравоохранения, научным исследованиям и международному сотрудничеству, — поясняет он и также предупреждает о неясной степени автономии и человеческого контроля в системах вооружений, который в конечном итоге принимает решения.

Эти системы становятся все более сложными и мощными, а поскольку время реакции на войне должно быть быстрее, мы можем ожидать, что все больше и больше решений будет оставлено на усмотрение оружия. С другой стороны, наличие человека, который контролирует автономное оружие с искусственным интеллектом, может ввести исследователей в заблуждение. Они могут считать, что такая система является этичной и соответствует военным стандартам. Однако, как предупреждает Райан, это не обязательно означает, что люди фактически принимают участие в процессе принятия решений.

«Хотя для создания оружия на основе искусственного интеллекта еще предстоит проделать большую работу, большинство базовых алгоритмов уже предложены или находятся в центре внимания крупных академических и промышленных исследований, мотивированных невоенными приложениями, такими как беспилотные транспортные средства, — отметил Райан.

Некоторые учёные призывают к полному запрету военного искусственного интеллекта. Это морально идеально, но нереалистично; искусственный интеллект слишком полезен для военных целей, чтобы достичь международного консенсуса, необходимого для установления или обеспечения соблюдения такого запрета.

«Нам необходимо как можно скорее запретить и регулировать наиболее суровые классы ИИ-оружия и установить ограничения на запрет прохода», — говорит Райан, который считает, что оружие на основе ИИ должно дополнять, а не заменять солдат-людей.

Выбор редакции