Этическое использование

В понедельник Пентагон объявил об официальном принятии ряда новых принципов, определяющих этику использования искусственного интеллекта в военных действиях, сообщает агентство Associated Press.

Принципы были сформулированы комиссией, получившей название (мрачный новояз) Совет по оборонным инновациям, которая в прошлом октябре разработала свои рекомендации для Пентагона (с титульным названием «Принципы ИИ: рекомендации по этическому использованию искусственного интеллекта Министерством обороны»).

Совет возглавил бывший генеральный директор Google Эрик Шмидт — интересный поворот (как отмечает AP), тем более, что Google, как представлялось, (возможно, намеренно) ушел из проекта министерства обороны по разработке ИИ в 2018 году после многочисленных протестов сотрудников корпорации (не говоря уже о том, как Пентагон привлек к этому Google).

«Ответственность»

Согласно имевшимся на конец 2019 года данным, эти принципы следующие (с авторскими комментариями в скобках):

  1. Ответственность («люди» в министерстве обороны должны проявлять здравый смысл при использовании ИИ на войне);
  2. Справедливость (Министерство обороны «должно предпринимать обдуманные шаги», чтобы избежать предвзятости в отношении признания ИИ);
  3. Отслеживаемость (Министерство обороны должно иметь свои домашние наработки и понимать, как работает технология)
  4. Надежность (системы ИИ должны иметь «четко обозначенную область применения», а также хорошо работать)
  5. Управляемость (системы ИИ должны иметь «способности обнаруживать и избегать непреднамеренного вреда или отказов»;

Кому-то может показаться, что все это звучит слишком обще, безвредно, неээфективно, близоруко, беззубо и шито белыми нитками, хотя…

Принципы

В Next Web назвали принципы слишком «туманными» и «беззубыми». А Дейв Гершгорн из OneZero отметил, что среди этих предполагаемых этических принципов отсутствует самый важный: «Нельзя никого убивать с помощью роботов».


Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *