Страны по всему миру борются за превосходство ИИ. На сегодняшний день большая часть общественного внимания, связанного с этим, сосредоточена на коммерческих выгодах, вытекающих из технологии. Но гонка вооружений ИИ для военного применения также идет вперед, и обеспокоенные ученые, академики и лидеры индустрии ИИ бьют тревогу.

По сравнению с существующими военными возможностями, технология с поддержкой искусственного интеллекта может принимать решения на поле боя с математической скоростью и точностью и никогда не уставать. Однако страны и организации, разрабатывающие эту технологию, только начинают формулировать идеи о том, как этика повлияет на войны ближайшего будущего. Очевидно, что развитие автономных систем вооружения с использованием искусственного интеллекта создаст значительные риски нестабильности и эскалации конфликтов. Однако призывы к запрету этого оружия вряд ли увенчаются успехом.

В эпоху растущей военной напряженности и риска ведущие вооруженные силы во всем мире продвигают разработки оружия с поддержкой искусственного интеллекта и системами принятия решений, ища передовые применения на поле боя и в области безопасности. Военный потенциал этого оружия значителен, но этические соображения в значительной степени игнорируются. Подобные механизмы уже используются для защиты кораблей от атак небольших лодок, поиска террористоввыставления часовых и уничтожения средств ПВО противника.

На данный момент гонка вооружений с ИИ — это холодная война, в основном между США , Китаем и Россией, но есть опасения, что она перерастет в нечто большее. Движимые страхом перед тем, что другие страны одержат верх, военные державы мира конкурируют с помощью ИИ в течение многих лет — по крайней мере, с 1983 года — для достижения преимущества в балансе сил. Это продолжается и сегодня. Как известно, президент России Владимир Путин заявил, что нация, лидирующая в ИИ, будет “правителем мира».

Как выстраивается политика за использованием военного ИИ

Согласно статье в журнале Salon, различающиеся подходом и идеологией исследовательские организации, включая Центр новой американской безопасности (CNAS), Брукингский институт и Фонд Наследия, заявляют, что Америка должна увеличить расходы на исследования и разработки ИИ. В статье Foreign Affairs утверждается, что страны, которые не смогут использовать передовые технологии на поле боя, потеряют свое конкурентное преимущество. Говоря об ИИ, бывший министр обороны США Марк Эспер в прошлом году напомнил: “История говорит о том, что те, кто первыми осваивают технологии раз в поколение, часто имеют решающее преимущество на поле боя на долгие годы”. Действительно, ведущие военные министерства вкладывают значительные средства в ИИ, мотивированные желанием обеспечить себе оперативные преимущества на будущих полях сражений.

Гражданские надзорные комитеты приняли это мнение. Осенью прошлого года в двухпартийном докладе Конгресса США содержался призыв к Министерству обороны более серьезно отнестись к ускорению развития искусственного интеллекта и автономных возможностей. Созданная Конгрессом Комиссия национальной безопасности по ИИ (NSCAI) недавно призвала увеличить финансирование НИОКР ИИ в течение следующих нескольких лет, чтобы обеспечить США возможность сохранить тактическое превосходство над своими противниками и достичь “военной готовности ИИ” к 2025 году.

В будущем война будет сталкивать “алгоритм с алгоритмом”, утверждает новый отчет NSCAI. Несмотря на то, что военные продолжают конкурировать, используя системы вооружения, подобные тем, которые были в 1980-х годах, отчет NSCAI утверждает: “Источники преимущества на поле боя будут смещаться от традиционных факторов, таких как размер сил и уровень вооружений, к таким факторам, как превосходный сбор и усвоение данных, связность, вычислительная мощность, алгоритмы и безопасность системы”. Возможно, новое оружие с поддержкой ИИ сделает обычные силы почти устаревшими, с рядами разлагающихся танков «Абрамс», пылящихся в пустыне, — так же, как законсервированные корабли Второй мировой войны лежат у берегов Сан-Франциско. Недавно, выступая перед журналистами, Роберт О. Ворк, вице-председатель NSCAI, сказал о международном конкурсе искусственного интеллекта: “Мы должны… серьезно отнестись к этому конкурсу, и мы должны его выиграть”.

Ускоряющаяся гонка вооружений с ИИ

Работа по внедрению ИИ в вооруженные силы уже далеко продвинулась. Например, военные в США, России, Китае, Южной Корее, Великобритании, Австралии, Израиле, Бразилии и Иране разрабатывают приложения кибербезопасности, боевые симуляторы, рои беспилотников и другое автономное оружие.

Российский «Уран-9» — вооруженный робот. Фото: Дмитрий Фомин

Недавно завершенная программа “Глобальное информационное доминирование” Северного командования США указало на огромные преимущества, которых может достичь Министерство обороны, применяя машинное обучение и искусственный интеллект ко всей информации. В ходе учений была собрана информация из всех областей, включая космос, киберпространство, воздух, сушу, море и подводное пространство, сообщает ВВС.

Гилман Луи, комиссар по докладу NSCAI, делится в новостной статье: “Я полагаю, что ошибка — думать об этом как о гонке вооружений”, — хотя тут же добавляет: — Мы не хотим быть вторыми”.

Опасная погоня

Вест-Пойнт начал обучать курсантов этическим вопросам. Люди теряют контроль над полем боя из-за умных машин. Наряду с этическими и политическими проблемами гонки вооружений ИИ существует повышенный риск спровоцировать случайную войну. Как это может случиться? Множество способов, от неверно истолкованного удара беспилотника до автономных реактивных истребителей с новыми алгоритмами.

Системы ИИ обучаются на данных и отражают качество этих данных наряду с любыми присущими предубеждениями и предположениями тех, кто разрабатывает алгоритмы. По прогнозам Gartner, к 2023 году до 10% обучающих данных ИИ будут отравлены доброкачественными или вредоносными акторами. Это важно, особенно с учетом уязвимости безопасности критических систем.

Когда дело доходит до предвзятости, военные применения ИИ, по-видимому, ничем не отличаются от гражданских, за исключением того, что ставки гораздо выше,  хорошая ставка по автострахованию. Рафаэль Лосс и Джозеф Джонсон в своей книге “Война на скалах” утверждают, что военное сдерживание — это «чрезвычайно сложная» проблема, какую любой ИИ, которому мешает отсутствие надежных данных, вряд ли сможет решить в ближайшем будущем.

Как насчет предположений? В 1983 году мировые сверхдержавы были близки к случайной ядерной войне, главным образом потому, что Советский Союз полагался на программное обеспечение, чтобы делать прогнозы, основанные на ложных предположениях. По-видимому, это может произойти снова, тем более что ИИ увеличивает вероятность того, что люди будут отстранены от принятия решений. Остается открытым вопрос, станут ли риски такой ошибки выше или ниже при более широком использовании ИИ, но в 1967 году в сериале «Звездный путь» (Star Trek) было видение того, как это может произойти . Риск конфликта в “Вкусе Армагеддона” возрос до такой степени, что война была передана на аутсорсинг компьютерному моделированию, которое решало, кто погибнет.

Источник: «Звездный путь»,  серия «Вкус Армагеддона«

Джинна обратно в бутылку не посадишь. Гонка вооружений с ИИ идет полным ходом, и ведущие военные страны мира не хотят быть на втором месте или еще ниже. Куда это приведет, остается только гадать. Очевидно, однако, что войны будущего станут вестись и определяться ИИ в большей степени, чем традиционной “военной мощью». Этическое использование ИИ в этих приложениях остается открытым вопросом. В рамках мандата доклада NSCAI было рекомендовано ввести ограничения в отношении того, как следует использовать эту технологию, но, к сожалению, решение было отложено на более поздний срок.

Автор: Гэри Гроссман — старший вице-президент по технологической практике Edelman и глобальный руководитель Центра передового опыта Edelman AI Center of Excellence

Источник: https://venturebeat.com/2021/04/19/the-ai-arms-race-has-us-on-the-road-to-armageddon/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *