Навигация по сайту

ФЕДЕРАЛЬНЫЙ ПИЛОТНЫЙ ПРОЕКТ

ДЕНЬ ОТКРЫТЫХ ДВЕРЕЙ

ГОД СЕМЬИ

Разработан алгоритм, способный выявить экстремиста еще до публикации постов

Новости Центра профилактики религиозного и этнического экстремизма в образовательных организациях РФ

Группа исследователей из Массачусетского технологического института (MIT) и Университета Брандейса в Массачусетсе разработала алгоритм, который умеет определять экстремистов в соцсетях еще до публикации ими соответствующих постов. Описание алгоритма, созданного на основе анализа нескольких тысяч учетных записей в сети микроблогов Twitter, было опубликовано в журнале Operations Research. Борьба с экстремизмом и разжигающим ненависть контентом является одной из главных и трудных задач для крупных интернет-компаний, включая Facebook, Twitter и YouTube. Власти разных стран требуют от платформ удалять такой контент в максимально сжатые сроки, но сотрудники, занимающиеся модерацией и призванные помогать им автоматические алгоритмы не всегда справляются с задачей. Кроме того, речь в этом случае идет о блокировке и удалении контента после его публикации.

Как пишет N+1, алгоритм американских исследователей, по сути, позволяет осуществлять премодерацию. Он основан на анализе пяти тысяч микроблогов, которые вели члены террористических организаций или связанные с ними пользователи (информация об этих аккаунтах была собрана через СМИ, блоги, аналитиков и правоохранительные органы). Для анализа ученые использовали 4,8 млн. твитов, связанных с выбранными аккаунтами, описания профилей этих пользователей, а также их друзей и подписчиков (это увеличило базу до 1,3 млн. аккаунтов).На основании этих данных при помощи статмоделирования ученые разработали модель, способную с высокой точностью определить, является ли тот или иной аккаунт экстремистским, до того, как его владелец опубликует первую запись. По словам одного из соавторов исследования, пользователи, которые занимаются онлайн-экстремизмом, имеют схожие поведенческие характеристики в соцсетях, что и позволяет алгоритму выявлять их при создании новых аккаунтов.

В Великобритании запущена технология искусственного интеллекта, которая может обнаруживать видео ролики Игил и предотвращать их загрузку, чтобы остановить распространение «ядовитого» контента. Разработчики Министерства внутренних дел, бесплатно делятся своим программным обеспечением с любым веб-сайтом или приложением в мире в надежде, что это затруднит доступ к пропаганде террористической группы и ее распространение. Тесты показывают, что он может обнаружить 94% видео Игил и делает так мало ошибок, что один человек может модерировать пограничные случаи для всего YouTube. Доктор Марк Уорнер, исполнительный директор ASI Data Science, рассказал, что успех технологии зависит от того, сколько компаний встроит ее в свои системы, но «мы надеемся, что это может сыграть свою роль в удалении экстремистского контента из Интернета». «Атаки волков-одиночек трудно обнаружить с помощью обычного наблюдения – это сложная проблема, когда кто-то радикализуется не выходя из дома», – добавил он. «Способ бороться с этим – отсечь пропаганду у источника. Мы должны предотвратить попадание всех этих ужасных видеороликов в группу людей, на которых они могут повлиять».

Службы безопасности все более активно предупреждают по поводу онлайновой или «дистанционной» радикализации на фоне рекордного числа арестов в Великобритании*. В отчете «Независимый обзор законодательства о терроризме» говорится, что это явление сделало угрозы “очень трудными для обнаружения” после пяти нападений в Лондоне и Манчестере. Глава MI5, заявил, что компании несут «моральную ответственность», должны помогать противостоять неослабевающей угрозе со стороны людей, которые могут «ускориться от планирования актов до их исполнения всего за несколько дней». Пропаганда Игил была связана с многочисленными заговорами в Великобритании, а также с тем, что более 800 мужчин, женщин и детей отправились в самопровозглашенный «халифат». Изощренный контент террористической группы варьировалась от ужасных видеозаписей казни до инструкций по нападению, руководств по изготовлению бомб, призывов к оружию, идеологических учений и радужном изображении жизни в так называемом исламском государстве. Более 1300 видеороликов, выпущенных его центральным медиа-офисом 2,5 года, были проанализированы ASI, который выявил «тонкие сигналы», которые можно использовать для идентификации новых видеороликов Игил до их публикации. Индикаторы, используемые системой «расширенного механического распознавания», характерны для Игил и это позволит избежать проблем, созданных крупномасштабными действиями YouTube, которые привели к удалению доказательств военных преступлений боевиков.

Этот инструмент может быть интегрирован в процесс загрузки на любой платформе, при этом Министерство внутренних дел надеется охватить небольшие компании, которые не могут финансировать огромные операции по удалению контента, подобные таким, как Facebook и YouTube. Исследования показывают, что сторонники Игил использовали 400 различных платформ для распространения своего материала в 2017 году, причем 145 использовались впервые, несмотря на репрессии со стороны технических гигантов. «Google и Facebook не могут решить эту проблему в одиночку … это гораздо более широкая проблема», – сказал доктор Уорнер. «Мы пытаемся устранить этот ужасный контент во всей сети, а не только на конкретных платформах». Джон Гибсон, директор службы обработки данных в ASI, признал, что программное обеспечение не помешает Игил загружать видео на свои собственные веб-сайты, которые часто отключаются, или в приложение Telegram для зашифрованных сообщений. Но он сказал, что это может затруднить распространение пропаганды Игил.

Министерство внутренних дел профинансировало ASI – которое ранее использовало данные для прогнозирования продаж сэндвичей с беконом на рейсах ЕasyJet и обеспечения ритмичной работы автобусов – 600 000 фунтов стерлингов, чтобы создать инструмент всего за пять месяцев. В настоящее время официальные лица рассматривают возможность расширенного механического распознавания для поиска пропаганды других групп, включая «Аль-Каиду». Чарли Уинтер, старший научный сотрудник Международного центра по изучению радикализации и политического насилия (ICSR) в Королевском колледже Лондона, сказал, что это может оказать «значительное влияние». «Если крупные технологические компании зайдут на борт, поиск такого материала в открытом интернете усложнится, но всегда найдутся платформы для обмена видео, которые не будут использовать это программное обеспечение», – сказал он. «Это шаг в правильном направлении, но это не решит проблему. Цензура ограничивается сложным доступом к этому материалу, и она никогда не сможет искоренить его из Интернета». Технология ориентирована только на видео и не сможет обнаружить журналы Игил, газеты, наборы фотографий и текстовую пропаганду. Г-н Винтер сказал, что новая технология не окажет влияния на «сторонников Игил, обладающих картами», которые получают информацию от Telegram, но может «ограничить возможность любопытных и уязвимых людей подвергать себя воздействию такого рода материалов». Министр внутренних дел заявил: «Я надеюсь, что эта новая технология, разработанная Министерством внутренних дел, поможет другим двигаться дальше и быстрее». «Цель этих видеороликов – подстрекать к насилию в наших общинах, привлекать людей к их делу и пытаться распространять страх в нашем обществе. Мы знаем, что автоматические технологии, подобные этой, могут серьезно нарушить действия террористов, а также не дать людям когда-либо использовать эти ужасные видео».

*Министерство внутренних дел сообщило, что 400 подозреваемых были задержаны и более 850 разыскиваются в соответствии с Законом о терроризме в течение года.Около 15 процентов задержанных составляли женщины и девочки – самая высокая доля за всю историю наблюдений – и число арестов во всех возрастных и этнических группах возросло. Наибольшее увеличение было зафиксировано среди подозреваемых в «белой этнической внешности»: число арестов увеличилось на 77 процентов с прошлого года до 143, составив 36 процентов от общего числа. Из 850 человек, которые уехали из Великобританию воевать за Игил – половина уже вернулись.

По материалам: The Independent Экономические новости

23 / 01 / 2019

Показать обсуждение