Последняя версия алгоритма Google-Пингвин (4.0 от 2016) подразумевает, что он просто неучитывает плохие ссылки на сайт. Не наказывает за них, а просто не учитывает. Но тогда остается вопрос, нужен ли в таком случае инструмент Disavow для отклонения некачественных ссылок?..
Инструмент, действительно, нужен.
Зарубежный специалист Marie Haynes на последней встрече для вебмастеров задала этот вопрос Джону Мюллеру (Google):
https://youtu.be/cXbWuQQp81A?t=842— Допустим, клиент несколько лет назад нанял сеошников, которые купили ему кучу статей с ссылками среднего качества (если вы понимаете, о чем я, не совсем ультра-спам). Можно ли быть уверенным, что Google проигнорирует эти ссылки или их нужно отклонить?
— Одна из целей отклонения ссылок это избавиться от ручных санкций в будущем, если вдруг у вас будет ручная проверка сайта.
— Так нужно ли отклонять плохие ссылки, которые были проставлены в далеком прошлом?
— Если сайт давно не покупает ссылки, то навряд ли к сайту будут применены ручные санкции.
— Ну допустим, у сайта нет ручных санкций. Могут ли эти ссылки повлиять в минус алгоритмически?
— Да, такое возможно. Алгоритмы при анализе ссылок могут сказать "Ого, да тут куча мусора в бэках", и тогда будут более осторожны при учете других ссылок сайта. А если вы почистите ссылочный профиль (отклоните весь мусор), то алгоритмы скажут "Ого, да тут все круто".
В общем, отклонять ссылки нужно.
Главное, найти что отклонять )