Что случилось
Полиция графства Бедфордшир (Англия) раскрыла схему крупного мошенничества с банкоматами. Преступная группа, действовавшая в Лутоне (город в Бедфордшире) и румынском Бакэу, за 2024 год сняла более £800 тыс. Деньги выводили через банкоматы в десятках городов. Всего было зафиксировано более 3 тыс. операций.
Во время обысков следователи изъяли около 20 смартфонов. В них оказалось 1,4 Тб данных — переписки, фотографии, видео, геолокации, электронные письма и заметки. Такой объем информации обычно изучают месяцами.
Для анализа данных полиция подключила систему искусственного интеллекта Nectar от американской компании Palantir. Алгоритм перевел более 100 тыс. сообщений с румынского языка, проанализировал фото и тексты, сопоставил передвижения подозреваемых и построил схемы их связей. Система автоматически выделяла сообщения о банкоматах, деньгах, наркотиках и оружии. Она формировала интерактивные диаграммы связей между участниками группы. По данным полиции, ИИ выявил около 120 потенциальных эпизодов преступной деятельности.
Следователи заявили, что без ИИ обработка данных заняла бы месяцы, а перевод переписки стоил бы около £30 тыс. Такое затяжное следствие могло привести к освобождению подозреваемых под залог и усложнить их привлечение к ответственности.
В результате были проведены аресты. В ноябре 2025 года шесть человек получили тюремные сроки. Полиция подчеркнула, что решения принимали люди, а ИИ использовался как инструмент для ускорения анализа.
Контекст и предпосылки
За последние два года ИИ в полиции перестал быть экспериментом. Технологии начали применять не только для аналитики, но и в повседневной работе — от подготовки документов до обработки цифровых доказательств.
Один из самых показательных кейсов — внедрение генеративного ИИ для написания полицейских отчетов в США. В 2024 году издание Associated Press сообщило о запуске инструмента Draft One от компании Axon: система превращает аудио с нагрудной камеры полицейского в черновик отчета за несколько секунд, после чего сотрудник обязан его проверить и отредактировать. В 2025 году полиция Сан-Франциско начала ограниченное тестирование этой технологии — с обязательным указанием факта использования ИИ в документах и запретом на применение в отдельных типах дел.
Европейские ведомства расширяют применение ИИ для анализа цифровых доказательств. Европол в 2024 году выпустил обзор о том, как алгоритмы помогают обрабатывать большие массивы данных — переписки, изображения, видео — и какие при этом возникают риски, включая вопросы качества данных и алгоритмической предвзятости.
Вероятные последствия
- ИИ, который выделяет подозрительные фрагменты, может влиять на то, куда следователь будет смотреть в первую очередь. Это может повысить требования к проверке результатов: что именно алгоритм искал, почему он выделил конкретные сообщения, как часто он ошибается. Чем шире такие инструменты будут применяться, тем чаще будет возникать вопрос о контроле доступа к данным, о работе с чувствительной информацией и о том, кто и как проверяет выводы ИИ.
- Если расследования начнут строиться вокруг одной ИИ-системы, полиция постепенно будет подстраивать под нее свои процессы: форматы данных, способы анализа, обучение сотрудников. Со временем станет проблематично быстро перейти на другой инструмент — это потребует денег, времени и перенастройки всей работы. В результате силовые структуры могут оказаться зависимы не только от самого программного обеспечения, но и от компании-поставщика: ее ценовой политики, условий контракта, обновлений и технической поддержки.
➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.