Искажение правды и фейковые новости.В конце декабря 2017-го я писал, что
те фейки, которые в прошлом году нам казались сумасшедшими, в этом – покажутся цветочками.
Похоже мы вступаем в эпоху, в которой действительно никому нельзя верить. И все трижды перепроверять. Новостной фон в последнее время это только подтверждает. Правды становится все меньше, а фейка и фейковых новостей – все больше.
После полуторагодового разбирательства Комитет конгресса США все-таки не нашел связи предвыборной кампании Трампа с Москвой (
https://www.bfm.ru/news/379595). Но перед этим в том, что эта связь была с помощью СМИ убедили больше чем полмира. Даже некоторые мои друзья в Штатах уверены, что такая связь была. Напоминаю, что
фейковые новости создаются с использованием так называемого эффекта «прайминга». Принцип такой: «Каждый раз, когда к нам приезжает Иван Иванович, у нас пропадают золотые ложки. Да, ложки мы через год находим в своих же карманах, но осадочек на Иван Иваныче, кем бы он ни был, остается».
Вот и сейчас дело со Скрипалем. Пока не комментирую.Кстати, и это важно, The Guardian недавно опубликовал большой
материал о рекомендательном алгоритме YouTube, продвигающем конспирологические ролики о «агрессивной России», «плоской Земле», масонах, рептилоидах, прочей лабуды и fake news.
«YouTube – самая недооцененная история 2016-2017 года. Его поисковая система и алгоритмы рекомендаций сами являются двигателями дезинформации», - считает известный техносоциолог Зейнеп Туфекци (Zeynep Tufekci).
В мире насчитывается 1,5 миллиарда пользователей YouTube – больше числа домохозяйств, в которых есть телевизор. То, что они смотрят, в значительной мере формируется рекомендательным алгоритмом YouTube.
Алгоритм подбирает их таким образом, чтобы подольше удержать человека у экрана. Гийом Часлот (Guillaume Chaslot), 36-летний французский программист, был одним из авторов этого алгоритма.
На протяжении трех лет он работал в Google и Youtube над этим алгоритмом и сегодня говорит, что рекомендательный алгоритм не оптимизирован для показа правдивых и сбалансированных роликов. «Время просмотров было приоритетом, – вспоминает он. – Все остальное считалось отвлекающими факторами».
Уволившись из компании, Часлот создал программу, которая имитирует поведение пользователя, просматривающего YouTube, и фиксирует, какие из видео рекомендуются алгоритмом. На протяжении последних 18 месяцев он использовал свое ПО, чтобы изучить искажения, присущие сегодняшнему алгоритму YouTube. Ролики касались таких тем, как выборы в США, Франции, Британии и Германии, глобальное потепление, массовые расстрелы в США. Результаты (и методологию) Часлот опубликовал на сайте
Algotransparency.org. Согласно его выводам,
YouTube систематически продвигает сенсационистские и конспирологические ролики, а также видео, разделяющие аудиторию на враждующие лагеря.
Самые интересные примеры были обнаружены его программой во время президентских выборов 2016 года. Как он заметил, рекомендательный
алгоритм YouTube не был нейтрален: он продвигал видео, которые, в основном, помогали Трампу и наносили вред Клинтон.
YouTube в шесть раз чаще рекомендовал видео, полезное для Трампа, чем для Клинтон. По-видимому, YouTube никогда не программировал свой алгоритм, чтобы приносить пользу одному кандидату над другим. Но это именно то, что произошло.
В YouTube , конечно, не согласились с этой методологией, данными и сделанными выводами: «Наши поисковые системы и рекомендательные системы отражают то, что ищут люди. Это не предвзятость по отношению к конкретному кандидату – это отражение интересов зрителей».
Кто бы сомневался 😊
Но все дело в том, что это похоже на кафетерий с автопилотом в школе, усвоившим, что детям нравится сладкая, соленая и жирная еда. Представьте, что он постоянно предлагает детям такую пищу, автоматически загружая следующую тарелку, как только ребенок съест очередной пакет чипсов или конфет. Полезно ли это?
Заботьтесь о своей информационной гигиене, а чтобы отличить фейк от правды – почитывайте мой канал 😊
#fakenews, #Youtube, #ITгиганты, #новости