Искусственный интеллект в поисках преступников

Таким образом японская полиция надеется предотвратить серьезные преступления. Как отмечается, сначала эти инновационные технологии будут использовать только для защиты высокопоставленных VIP-персон. Такая идея появилась через год после убийства бывшего премьер-министра Синдзо Абэ. Полиция опасается новых нападений со стороны "одиночных преступников", поэтому имеет желание привлечь ИИ к выявлению таких лиц заранее.

Искусственный интеллект против одиночных преступников

Тестовая система мониторинга безопасности с ИИ намеренно будет избегать технологии распознавания лиц. Вместо этого она будет сосредоточена на распознавании 3-х типов шаблонов машинного обучения. Камеры с использованием искусственного разума будут выявлять подозрительное поведение и объекты, которые могут нести угрозу для окружения, а также вероятные вторжения в зону ограниченного доступа.

Пока заявлено, что тестовый запуск этой системы наблюдения и безопасности в Японии состоится к марту 2024 г. По мнению некоторых экспертов безопасности в отношении террористических угроз, новейшие камеры на базе ИИ обеспечат больше возможностей для бдительности и помогут сделать работу полицейских значительно более эффективной. Однако такое мнение поддерживают не все. Некоторые обеспокоены внедрением этих технологий из-за наличия скрытых алгоритмов.

Камеры наблюдения с ИИИз-за прошлогоднего неожиданного убийства премьер-министра и неудачного покушения на нового избранника в этом году японская полиция изо всех сил пытается предотвратить резонансные преступления, которые часто совершают так называемые "одиночные преступники". В Японии их еще называют "отаку", что означает "запертый".

Оба эти термина относятся к одиноким молодым людям, которые составляют неудовлетворенную часть японского общества. Такие лица не причастны к криминалу, но иногда проявляют насилие.

Система пока что на стадии тестирования

Сторонники инновационного метода борьбы с одиночными преступниками говорят, что новейшие камеры смогут наблюдать за подозрительными лицами, а ИИ будет тренироваться распознавать действительную угрозу. Например, в зону внимания могут попасть те, кто часто и нервно оглядывается, и имеет другие проявления поведения "виновного ума".

По мнению экспертов, таким образом системы наблюдения с искусственным разумом смогут идентифицировать потенциально угрожающих особей среди толпы или при других отвлекающих факторах и выявлять подозрительные предметы. Такие действия очень сложны даже для опытных работников сферы безопасности. Автоматизация этого процесса значительно облегчит работу специалистов.

Сейчас эти новейшие технологии выявления потенциальных злоумышленников только тестируются. Эксперты отмечают, что на этом этапе сверхважно хорошо оценить точность отработки роботизированной системы, чтобы понять, стоит ли вводить ее на официальном уровне.

Другие похожие технологии в сфере безопасности

Следует отметить, что японцы не являются новаторами в этом направлении применения искусственного интеллекта. По словам эксперта по безопасности Исао Итабаши, еще по данным 2019 г. в 176 странах мира исследовали эти технологии, а в 52 из них - уже использовали их.

К тому же Япония еще в прошлом году ввела похожую систему на базе ИИ для использования на железной дороге с целью выявления подозрительных действий. Японцам принадлежит и стартап Vaak, разработавший гуманоидного робота для выявления потенциальных воров по их движениям и жестикуляции.

Работы в службе безопасностиЕсть подозрения, что именно это программное обеспечение заложено в основу новейшей технологии на службе в японской полиции. Однако официального подтверждения этому нет.

Как отмечает издание Daily MailИИ Vaak запрограммирован на распознавание подозрительных действий на записях безопасности. По утверждению разработчиков технологии, этот робот может различить обычное и потенциально преступное поведение людей. Заметив что-то подозрительное при видеонаблюдении, он предупреждает о потенциальной угрозе через специальное приложение.

Однако исследователи предостерегают, что работы Vaak для борьбы с кражами имеют расовые и другие предубеждения. Вообще, по исследованию 2018 г., многие популярные системы ИИ демонстрируют сексистские и расистские наклонности. Поэтому исследователи призывают обратить внимание на этот недостаток искусственного разума.

Прогностические системы с ИИ на службе безопасности

Искусственный разум на базе данных из предыдущих отчетов может прогнозировать, где и когда вероятны новые преступления. В базу данных, которую использует работ от Palantir Technologies, входит широкий спектр информации - от географии до судимостей и записей социальных сетей. На основе этого ИИ определяет лиц или места, которые могут быть причастны к преступлению.

Также существует немало других прогнозирующих систем похожего типа, которые значительно отличаются между собой. Например, в полиции Чикаго используют т. н. "срочный список". Он создан по алгоритму, который выделяет людей, вероятнее всего, причастных к стрельбе.

Однако многие эксперты отмечают наличие проблем у этой системы с ИИ. К тому же установлено, что данные о прошлых преступлениях не являются довольно существенным показателем будущей преступной деятельности.

Фото: pixabay.com

ПРОКОМЕНТИРОВАТЬ

Прокомментировать

ТЕЛЕГРАМ

FACEBOOK

О НАС

Логотип 50 Plus

50Plus - это медиа-ресурс об образе жизни поколения 50+. Наша миссия - предоставлять интересную и полезную информацию читателям и вдохновлять их на новом этапе жизни.

ПОДПИСКА

Подпишитесь на рассылку, чтобы получать еженедельный дайджест.

UA