Умное оружие и мониторинг соцсетей: сможет ли ИИ предотвращать теракты

Фото: Shutterstock
Фото: Shutterstock
После каждого жестокого преступления мы задумываемся, как его можно было избежать. Помочь в этом мог бы, например, искусственный интеллект. Рассказываем, как он может использоваться в общественной безопасности
1

Способ 1. Выявлять угрозу через камеры наблюдения

Профессор компьютерных технологий из Вашингтонского университета Али Фархади утверждает: можно обучить искусственный интеллект выявлять признаки, что человек вооружен и намерен совершить шутинг или теракт. Такая система должна будет сканировать видеозаписи с камер в режиме реального времени. Если она обнаружит оружие в руках или сумке, то моментально подаст сигнал полиции или автоматически заблокирует преступнику вход в здание.

Пример изображения с камеры, которой управляет искусственный интеллект
Пример изображения с камеры, которой управляет искусственный интеллект (Фото: omnilert.com)

Некоторые организации уже внедрили похожие системы видеонаблюдения. Частная школа в штате Висконсин использует технологию от компании Actuate AI. Разработчики утверждают, что камеры обнаруживают оружие в течение 15 секунд и уведомляют полицию.

Главная проблема, которая может возникнуть, — ошибочное распознавание. Пока искусственный интеллект не обучится, он может принимать за оружие дрель, метлу и другие предметы. Недостаток света в помещении, ограниченный угол обзора и препятствия тоже негативно влияют на точность.

В России широко используются «умные» видеокамеры, которые идентифицируют личность человека, который может оказаться потенциальным преступником. В московских системах наблюдения используются нейросети от компании NtechLab. Они распознают лицо человека, сравнивая его внешность с фотографиями из базы. Если алгоритм считает, что выявил преступника, полиция получает уведомление с изображением, текущей локацией и личными данными.

Предлагаются и системы видеонаблюдения, распознающие оружие.

2

Способ 2. Анализировать посты в социальных сетях

Перед тем как совершить теракт, почти 60% преступников публикуют записи об этом в своих профилях в социальных сетях. Например, устроивший стрельбу в казанской школе Ильназ Галявиев за несколько дней до этого создал Telegram-канал, где написал, что нападет на гимназию, после чего совершит самоубийство.

Если вовремя выявлять такие посты и личность их автора, можно успевать предотвращать преступления. Искусственный интеллект подходит для этой задачи, потому что способен быстро перерабатывать большие объемы информации.

Психолог Алисса МакКейб и профессор компьютерных технологий Анна Румшиски из Массачусетского университета проанализировали 185 тыс. слов, которые использовали в своих постах в социальных сетях будущие террористы и выяснили, что склонные к насилию люди часто употребляют в своих записях слова «ненавижу», «они», «ты», редко — «мир», «люди», «время». Используя эти данные, можно создать шаблоны текстов, которые пишут преступники. Искусственный интеллект будет выявлять угрозы, сравнивая записи пользователей с обобщенными образцами.

Ученые считают, что слова, которые использует человек, — яркий индикатор его психотипа
Ученые считают, что слова, которые использует человек, — яркий индикатор его психотипа (Фото: pressmaster / Depositphotos)

Некоторые активисты предлагают анализировать не только публичные записи, но и сообщения в приватных диалогах. Например, детский благотворительный фонд NSPCC призвал Facebook (соцсеть принадлежит Meta Platforms Inc., признана экстремистской и запрещена в России) автоматически проверять личные чаты на информацию, которая может указывать на жестокое обращение с детьми.

Главная сложность анализа публикаций — необходимость отличать посты тех, кто просто агрессивен, и тех, кто на самом деле собирается совершить преступление. Согласно отчету от Управления ООН по борьбе с терроризмом, сейчас над решением этой проблемы работают несколько стартапов.

Кроме того, если в соцсетях начнут использовать механизмы проверки приватных чатов, а не публичных постов, то пользователи могут воспринять это как нарушение приватности. Зимой 2021 года, когда пользователи WhatsApp ошибочно решили, что после обновления политики конфиденциальности сервис будет передавать их данные в Facebook, мессенджер стал терять аудиторию.

Ученые из Института Алана Тьюринга считают, что еще одна проблема — определить, как должна действовать система правосудия, если прогноз системы окажется верным и полиция сможет предотвратить преступление: ведь фактически оно не будет совершено, поэтому наказывать виновника не за что.

3

Способ 3. Выявлять риски с помощью психологических опросов

У преступников, действия которых связаны с насилием, признаки агрессивного поведения проявлялись задолго до трагедий. Американский психолог Питер Лангман считает, что стрелков, напавших на школы, можно разделить на две категории. Одни из них были психопатами — людьми, получающими удовольствие от жестокости и обладающими низкой способностью к сопереживанию. Другие пошли на преступление из желания отомстить обидчикам, которые издевались над ними.

Исследователи медицинского центра в Цинциннати планируют разработать психологический тест из 28 вопросов. Он должен выявлять школьников, склонных к жестокости, и тех, кто терпит издевательства со стороны ровесников. Роль искусственного интеллекта здесь сводится к анализу ответов и определению, кому из опрошенных нужна работа с психологом.

В процессе разработки ученые планируют протестировать опрос на 1 тыс. подростков в возрасте от 10 до 17 лет
В процессе разработки ученые планируют протестировать опрос на 1 тыс. подростков в возрасте от 10 до 17 лет (Фото: alebloshka / Depositphotos)

Для прогноза рисков разработали шкалу краткой оценки агрессии у детей и подростков. Она основана на HCR-20 — методах прогнозирования насилия в криминалистике. Ичжао Ни, один из ведущих исследователей проекта, сообщает, что система будет вспомогательным инструментом в психотерапии и не заменит настоящего психиатра.

4

Способ 4. Управлять оружием

Селмер Брингсьорд, эксперт в области искусственного интеллекта, предложил создать «этичное оружие», из которого будет технически невозможно открыть огонь без необходимости. Брингсьорд и его команда разработали симулятор пистолета, обладающего искусственным интеллектом. Модель может за 2,3 секунды проанализировать окружающую обстановку и определить, стоит выстрелить или нет.

Главная проблема — правильность решений искусственного интеллекта. Брингсьорд намерен разработать устройства, которые будут действовать на основе законодательства. Но пока система не обучится, она может ошибочно блокировать выстрелы и создать угрозу для человека, который с помощью оружия защищает себя или других людей.

Обновлено 26.09.2022
Главная Лента Подписаться Поделиться
Закрыть