В США планируют разработать платформу на основе искусственного интеллекта, которая поможет при помощи беспилотных аппаратов выявлять угрозы безопасности в городской среде. Об этом говорится в документе Управления перспективных исследовательских проектов Министерства обороны США (DARPA), с которым ознакомился RT.

Пентагон планирует выявлять угрозы безопасности в городской среде с помощью ИИ

Как отмечается в документе, разработки должны помочь вычислить тех, кто может представлять угрозу для США и их союзников.

В качестве примеров «угроз» в документе называются организация засады, разжигание насилия, волнений или беспорядков, перевозка или контрабанда оружия, а также установка взрывных устройств.

На каждый одобренный проект планируется потратить до $1 млн.

В Пентагоне пояснили, что возможности средств сбора разведданных, наблюдения и рекогносцировки ограничены в городских условиях из-за «сложности и неясности» этой среды. Под сложностью понимается высокая плотность населения, структурная сложность и неоднородность городской местности, а под «неясностью» — возможность «противника» смешиваться с гражданским населением и маскировать враждебные действия под повседневную деятельность в городе.

«Развитие технологий искусственного интеллекта, в частности автоматический анализ видеоинформации, потенциально может помочь человеку в нивелировании этой сложности и неясности», — сообщают в ведомстве. 

Цель инициативы — разработать для беспилотных летательных и наземных аппаратов набор сценариев, которые позволят более точно определять лиц, потенциально представляющих угрозу для безопасности.

В Минобороны США не исключают, что использование таких технологий может повлиять на повседневную жизнь в городе. Поэтому Пентагон стремится найти стратегию, препятствующую росту напряжённости среди гражданского населения, подчёркивается в документе.

Ранее в американском конгрессе рассказали, как Вашингтон модернизирует военную разведку из-за противостояния с Россией и Китаем.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь