👀 В
Facebook обучили ИИ-алгоритмы обнаруживать и блокировать прямые трансляции перестрелок или другие материалы насильственного характера.
В 2019 году в новозеландском городе Крайстчерч произошел террористический акт, в результате которого 51 человек погиб и 40 получили ранения. Один из нападавших 17 минут транслировал стрельбу в сервисе
Facebook Live, так как искусственный интеллект выявил только 0,11 баллов по внутренней шкале насилия при пороге вмешательства 0,65.
Исследователи переобучили алгоритмы, расширив тренировочный датасет роликами с камер полиции и военных, а также кадрами из шутерных видеоигр и симуляций в качестве материалов «не для блокировки».
🔎 В результате работы, время обнаружения искусственным интеллектом вредного контента на платформе сократилось с 5 минут до 12 секунд, а видео из Крайстчерча набрало 0,96 по шкале насилия.
#Facebook