АЛТЫНОРДА
Новости Казахстана

[:ru]Как искусственный интеллект поможет ловить террористов[:]

[:ru]

e41bc41068c2ee0592056df2169Алгоритмы искусственного интеллекта (ИИ), которые мониторят общество и ищут потенциальные террористические угрозы, уже обсуждались в книгах и фильмах. Например, в сериале «В поле зрения» от сценариста «Интерстеллара» Джонатана Нолана программист Гарольд Финч создал алгоритм, который наблюдает за всеми через уличные камеры, читает все сообщения и почту, анализирует звонки и указывает на людей, которые скоро могут стать либо жертвами, либо угрозами общества, в том числе террористами. После теракта 11 сентября людям нужна была защита любой ценой, и неважно, что для этого использовалась личная информация, которую защищает Конституция.

Но важность защиты личной информации ставится под сомнение, когда оказывается, что террориста можно было поймать на основе очень подозрительного поведения в интернете. Перед террористическими атаками в Нью-Йорке и Нью-Джерси в сентябре 2016 года Ахмад Хан Рахами закупал вещества для создания взрывчатки на eBay, смотрел экстремистские ролики в социальных сетях и уже сидел за решеткой. «Если бы только власти соединили все точки», — сокрушается Крис Штром, журналист Bloomberg.

Если верить авторам книги «Суперфрикономика», то алгоритмы уже соединяют нужные точки, по крайней мере, в отношении финансирования террористов. Стивен Левит и Стивен Дабнер пишут, что после атак 11 сентября анализ банковских счетов 19 террористов выявил типичные элементы поведения. Например, террористы часто создавали один крупный депозит и снимали с него небольшие суммы, пользовались наличными деньгами чаще, чем чеками, а вместо адреса почты указывали «до востребования».

Генеральная прокуратура РК также составила портрет типичного радикала. Согласно официальному сайту госоргана, это «в основном молодые люди с криминальным прошлым, не имеющие постоянной работы и высшего образования». Потенциальные радикалы не имеют религиозных познаний, не читали и не хотят читать религиозную литературу, а свои взгляды о религии, добре и зле основывают на сомнительных материалах из интернета и слепо доверяются проповедникам терроризма.

У систем поиска террористов есть еще целый ряд показателей, но, во-первых, они также не раскрываются, а во-вторых, мы не узнаем, сработали ли они. Возможно, если бы не этот алгоритм, в мире было бы гораздо больше атак, о которых мы и не подозревали.

Возможно, такой механизм уже работает, но общество пытается защищать право на личную жизнь. В феврале 2016 года ФБР требовало, чтобы Apple помогла взломать iPhone террориста из Сан-Бернардино. Тим Кук в открытом письме заявил об отказе сотрудничества с властями, так как схема разблокировки ставит под угрозу конфиденциальность данных пользователей.

Кажется, вопрос не только в том, как работают эти системы, но и в том, имеют ли они право влезать в жизнь обычных людей и следить за каждым? Павел Дуров, основатель «ВКонтакте» и Telegram, полагает, что борьба с терроризмом — это лишь предлог для тотальной слежки. «Ежегодно от несчастных случаев в ванной умирает в тысячи раз больше людей, чем от террористических атак. Но если завтра спецслужбы США или другой страны решат установить видеокамеры в наших ванных комнатах для „нашей же безопасности“, мы все же заклеим их объективы. Потому что наша личная жизнь — не их дело», — считает Павел Дуров. Он также заявляет, что его мессенджер Telegram полностью шифрует переписку, и он не собирается открывать доступ спецслужбам даже под лозунгом общественной безопасности.

Но для борьбы с терроризмом не всегда нужно незаконное использование личной информации. ИИ уже учится следить за террористами на основе открытых данных — моделей поведения в боевых действиях. Так, алгоритм, разработанный в Университете Бингхамтона, предсказывает атаки ИГИЛ через анализ их прошлых действий. Для анализа используются данные времени, типа оружия прошлых 140 тысяч террористических атак с 1970 по 2014 год. Точность прогноза равнялась почти 90%, пишет neurosciencenews.com.

ИИ из сериала «В поле зрения» вряд ли существует в полной мере, но, возможно, система уже работает и прямо сейчас знает, что вы читаете о ней.

 

[:]