Навигация по сайту

ФЕДЕРАЛЬНЫЙ ПИЛОТНЫЙ ПРОЕКТ

ДЕНЬ ОТКРЫТЫХ ДВЕРЕЙ

ГОД СЕМЬИ

Удаление экстремистских видеороликов с YouTube – проблема, которую можно решить, но…

Новости Центра профилактики религиозного и этнического экстремизма в образовательных организациях РФ

 

 

Специалисты некоммерческой организации «Проект  Противодействия  Экстремизму» провели исследование, чтобы лучше понять распространенность видеороликов Игил на YouTube. Используя веб-сканер и свою собственную технологию сопоставления видео  –  «eGLYPH»*, они искали присутствие на YouTube  образцов из 229 ранее идентифицированных видеороликов, созданных Игил в течение трех месяцев (это всего лишь часть потока экстремистских материалов,  доступных на платформе). Результаты исследования ставят под сомнение заявления YouTube о том, что он может быстро и эффективно удалять видео Игил.

Исследование показало –  с марта по июнь 2018: с 278 аккаунтов было залито на YouTube  1 348 роликов, набравших 163 931 просмотров.  24% роликов за период более двух часов набрали 148 590 просмотров, 76%  за менее чем 2 часа  – 14 801.  После удаления большей части запрещенного контента – 60%  аккаунтов, разместивших данный контент продолжили функционировать.  91% видео были загружены более одного раза.

Очевидно, что процесс YouTube  по выявлению и удалению экстремистского контента терпит неудачу, и компания не выполняет свое обещание принять меры против учетных записей, которые неоднократно нарушают их условия предоставления услуг.

* “eGLYPH” – инновационный алгоритм,  который  идентифицирует экстремистский контент в интернете и социальных сетях. Технологическое решение  «eGLYPH» позволяет интернет и социальным медиа-компаниям быстро удалять экстремистский контент со своих платформ.  eGLYPH работает через алгоритм, который анализирует изображение, видео или аудио файл и создает то, что известно как уникальный «хэш» для этого файла. Социальные сети и технологические компании могут  пропускать  контент через фильтр и если этот контент соответствует хэшу,  определенному как «экстремистский», компания может автоматически помечать его или удалять вообще. Технология была разработана  доктором Хани Фаридом, профессором и председателем отдела компьютерных наук Дартмутского колледжа, уже используется спец-службами Германии и Великобритании.

02 / 08 / 2018

Показать обсуждение