Size: a a a

Дежурный SEO-доктор

2019 April 10
Дежурный SEO-доктор
💭 Ответы на вопросы!
#ответы

Вопрос #331
Как ускорить переиндексацию страницы в поисковой системе Google? На товаре еще неделю назад изменили статус и цены. Несколько раз отправляли её на переиндексацию в Search Console, но в индексе по прежнему старая версия.

❗️ Ответ

👉 Для ускорения переиндексации страниц в ПС Google можно сделать следующее:

1️⃣ Запинговать необходимы страницы. Это даст сигнал боту для обхода страниц.

2️⃣ Дополнительно можно создать sitemap.xml с изменившимися страницами и добавить её в Search Console.

👆Для улучшения индексации, помимо добавления страниц на индексацию в Вебмастере, можно применить следующие методы:

1️⃣ Вывести на сайте сквозные блоки со ссылками на изменившиеся или созданные страницы.

2️⃣ Настроить заголовки Last-Modified.
Суть этого метода — если после последнего обхода бота на страницы не вносились изменения, сервер должен дать 304 ответ, чтобы бот не скачивал их содержимое и прежде всего расходовал квоту на реально изменившиеся со времени предыдущей индексации или же новые документы.

3️⃣ Избавиться от технических ошибок:
▫️дубли страниц;
▫️медленная загрузка страницы;
▫️перепроверить robots.txt, возможно, закрыты страницы для индексации.

💡Подробнее читайте в нашей статье: Как заставить поискового робота посещать ваш сайт чаще

via @siteclinic_doctor

Задать свой вопрос - https://t.me/seodoctor_bot
источник
Дежурный SEO-доктор
❓Вопрос #338

Информационный сайт. Скопипастили статьи с ссылкой на источник. Но сайты, которые скопипастили статьи, плохого качества. И получается, что на сайт ведет много почти идентичных ссылок с плохих сайтов. Может ли это как-то повлиять на продвижение в гугле? Есть ли смысл отклонять через disavow? Или писать авторам сайта и просить убрать? Но не окажется тогда, если убрать полностью ссылку, на продвижении в Яндексе?

✔️Вопрос принят.
источник
Дежурный SEO-доктор
❓Вопрос #339

Что делать, если количество страниц пагинации в каталоге в некоторых категориях более 1000? Есть ли какой-то лимит? Стоит ли оставлять как есть или как оптимизировать пагинацию на больших каталогах?

Из вариантов:
1. Добавить фильтры (но это не всегда возможно из-за особенностей ассортимента).
2. Убрать часть позиций из каталога, оставив только топовые. Остальные выводить через sitemaps.
3. Ваш вариант.

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа.
источник
Дежурный SEO-доктор
👆Новости Netpeak Software| Netpeak Spider 3.2: рендеринг JavaScript и экспресс-аудит в PDF

Cегодня ребята из Netpeak Software представляют улучшенную версию SEO-инструмента → Netpeak Spider 3.2 😱

Самые важные изменения:
🕷 рендеринг JavaScript;
🕷 экспресс-аудит качества оптимизации (PDF);
🕷 расширенное описание ошибок;
🕷 и многое другое ;)

Кстати, не упустите возможность воспользоваться скидкой 20% с промокодом NS3-2-SC до 23 апреля включительно → скоро повышение цен 💰

Узнайте обо всех изменениях из поста на блоге 👈🏼

#реклама
источник
Дежурный SEO-доктор
💭 Ответы на вопросы!
#ответы

Вопрос #330
Бла-бла-Пишите текст для людей-бла-бла. Надоело! Не верю, что в SEO сообществе профессионалов нет алгоритма по подгонке текста к SEO параметрам поисковика! Мы же видим выдачу!! Документы Топ 3 90% тематик заспамлены ключами! И не падают. Смотрю высококонкурентные тематики: Мебель, строительство, Юр.услуги и т.д. Используется черное сео. Их бы давно бы уже снесло за топ 100, но они в топ 3!? Почему? Не говорите, что это из-за других факторов, типа PBN и т.д. Дайте нам достоверную информацию по текстовой оптимизации!


❗️ Ответ

👆Текстовая оптимизация - это не ключ к ТОП-3.
Сайты, которые стоят в ТОПе со спамными текстами, держатся там не из-за текстов. Мы считаем, что на вершине ТОПа их удерживают  ͟с͟и͟л͟ь͟н͟ы͟е͟ ͟п͟о͟в͟е͟д͟е͟н͟ч͟е͟с͟к͟и͟е͟ ͟ф͟а͟к͟т͟о͟р͟ы͟.

Сайт может быть заспамлен ключевыми запросами, например, как тут. Но накопленные за время нахождения в ТОПе положительные ПФ дают ему некий иммунитет от санкций. Логика алгоритма такова: раз сайт решает проблему пользователей, его нужно показывать в ТОПе, и нарушения в текстах при этом – второстепенный фактор.

❗️Важные моменты:

1️⃣ Google: Чтобы подобраться как можно ближе к ТОП-10 Google, нужен релевантный контент + ссылки. Чтобы затем постепенно пролезть на вершину ТОПа, нужны ПФ + ссылки.

2️⃣ Yandex: Чтобы попасть в ТОП-10 Яндекса, сайту нужен релевантный контент и Многорукий Бандит. Чтобы удержаться в ТОПе и пролезть в первую тройку, нужны сильные ПФ.

⚠️ Ахтунг: У молодых сайтов нет истории ПФ -  следовательно, нет иммунитета от санкций.
Со спамом в ТОПах стоят в основном «старички" с длинной историей ПФ. Молодому сайту нельзя ориентироваться на них при оптимизации текстов – это прямая дорога в Баден-Баден.

3️⃣ Важность текстовой оптимизации сильно преувеличена.
Наш опыт: если удалить спамные тексты на странице, которая находится в ТОП-3, ее позиции не проседают, так как она держится там не из-за текстов.
Пытаться добить сайт до ТОП-3 за счет точечной оптимизации типа убрал там-добавил здесь – пустая трата времени.

👉 Вместо заточки текстов под конкретные ключи рекомендуем  ̶п̶и̶с̶а̶т̶ь̶ ̶т̶е̶к̶с̶т̶ы̶ ̶д̶л̶я̶ ̶л̶ю̶д̶е̶й̶  работать над User Value Content: LSI+Proof Terms + Related Terms.  

4️⃣ Черное SEO существует.
Но накручивают не тексты, а… вы уже знаете ответ.

🔥via @siteclinic_doctor
источник
2019 April 11
Дежурный SEO-доктор
❓Вопрос #340

Как правильно использовать микроразметку для социальных сетей Open Graph? Нужно ли указывать атрибут prefix="og: http://ogp.me/ns#" в теге html? Как настроить универсальный вариант микроразметки для самых популярных социальных сетей?

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа
источник
Дежурный SEO-доктор
❓Вопрос #341

Есть ли понимание, какие факторы изменились в ранжировании Google с мартовским апдейтом? Большой контентный проект с хорошим трафиком начал плавно терять трафик после апдейта и снижение до сих пор не остановилось. Сезонного спада нет, последние год-полтора проект уверенно рос.

✔️Вопрос принят. Время ответа - Вт,16.04
источник
Дежурный SEO-доктор
❓Вопрос #342

Конкурент скопировал авторитетный ecommerce-сайт: код, структуру, URL-ки, товары. При этом заменил метатеги, SEO-тексты и описания товаров. Как это может повлиять на позиции сайта-источника?

✔️Вопрос принят.
источник
Дежурный SEO-доктор
💭 Ответы на вопросы!
#ответы

Вопрос #337
Есть мнение, что стараться увеличить время и глубину просмотра на коммерческих сайтах не стоит, а даже наоборот, стремиться сократить - пользователь должен закрыть вопрос как можно скорее. Что вы об этом думаете?

❗️ Ответ
Мы предполагаем, что при оценке глубины просмотра конкретного сайта алгоритм ориентируется на средние данные по тематике, ко которой относится этот сайт.

👉 Глубина просмотра сильно зависит от направленности и тематики сайта, поэтому стандартного значения для неё нет.

👉 Зачастую, коммерческие сайты имеют довольно большую глубину просмотра, однако есть исключения. К примеру одностраничные сайты (Landing page) имеют низкие показатели, зато конверсия у них при этом отличная.

👉 Наличие большого количества страниц ещё не означает, что структура у сайта хорошая. Если показатель глубины просмотра низкий, а время просмотра страницы высокое, это может говорить о том, что навигация неудобна для пользователя.

💡Если вы не знаете, на какую глубину просмотров ориентироваться, лучше сфокусируйте внимание на другом факторе - удалось ли пользователю достичь своей цели.


В тему:
▫️Структура коммерческого сайта и SEO
▫️Проектирование структуры и навигации интернет-магазина: возможные проблемы и их решение
▫️Базовые ошибки Юзабилити

🔥 via @siteclinic_doctor
источник
2019 April 12
Дежурный SEO-доктор
❓Вопрос #343

Последнее время появилось большое количество сеансов от источника googleapis.com / referral. Прочитал, что это поисковые переходы из блока "Рекомендации" в выдаче. Так ли это? И где можно об этом прочитать в документации Google (так как информацию нашел только на форумах)?
источник
Дежурный SEO-доктор
❓Вопрос #345

В метрике среди популярных поисковых фраз часто вижу те, по которым сайт не отображается в выдаче. При этом метрика говорит, что по этим запросам пользователи заходят на сайт и даже заявки оставляют. Руками проверяю эти запросы в поиске — сайта по ним в выдаче нет.
Как такое может быть? Проверяю в режиме инкогнито.
источник
Дежурный SEO-доктор
💭 Ответы на вопросы!
#ответы

Вопрос #338
Информационный сайт. Скопипастили статьи с ссылкой на источник. Но сайты, которые скопипастили статьи, плохого качества. И получается, что на сайт ведет много почти идентичных ссылок с плохих сайтов. Может ли это как-то повлиять на продвижение в гугле? Есть ли смысл отклонять через disavow? Или писать авторам сайта и просить убрать? Но не окажется тогда, если убрать полностью ссылку, на продвижении в Яндексе?
❗️ Ответ

👉 Google:
Теоретические такие ссылки не должны вредить ранжированию в Google. С тех пор, как Пингвин интегрирован в основной алгоритм, Google не понижает за плохие ссылки – он просто не учитывает из при ранжировании.

💡Мы считаем, что удалять ссылки через Disavow Tool смысла нет по нашим наблюдениям, инструмент не работает.
Если вы боитесь, что такие ссылки могут навредить, лучше пробовать удалить их физически (через контакт с автором сайта).

👉 Яндекс:
Ссылочный фактор в Яндексе имеет очень слабое влияние на ранжирование, а ссылки с таких ресурсов не влияют вообще. Если их удалить, с наибольшей вероятностью на видимости сайта это вообще никак не скажется.

🔥via @siteclinic_doctor
источник
2019 April 15
Дежурный SEO-доктор
❓Вопрос #344

В чем разница между ссылочным продвижением под Яндекс и под Гугл и как правильно строить ссылочное для Гугла и не угодить под Минусинск Яндекса?

✔️ Вопрос принят.
источник
Дежурный SEO-доктор
Вопрос #346

Часто советуют на 2-3 уровень ссылочной пирамиды покупать арендные ссылки. Но в биржах типа sape большинство площадок очень сомнительного качества. Как находить хорошие арендные ссылки и где?

✔️ Вопрос принят.
источник
Дежурный SEO-доктор
❓Вопрос #347

Стоит ли закрывать от поисковых систем страницы политики конфиденциальности и пользовательского соглашения? Тексты на них — шаблоны, уникальность — 0%.

✔️ Вопрос принят.
источник
Дежурный SEO-доктор
❓Вопрос #348

Как правильно использовать микроразметку для социальных сетей Open Graph? Нужно ли указывать атрибут prefix="og: http://ogp.me/ns#" в теге html? Как настроить универсальный вариант микроразметки для самых популярных социальных сетей?

🕐 Время вышло. Вопрос не набрал нужного числа лайков за 24 часа
источник
Дежурный SEO-доктор
💭 Ответы на вопросы!
#ответы

Вопрос #342
Конкурент скопировал авторитетный ecommerce-сайт: код, структуру, URL-ки, товары. При этом заменил метатеги, SEO-тексты и описания товаров. Как это может повлиять на позиции сайта-источника?

❗️ Ответ
В большинстве случаев авторитетным сайтам это никак не навредит, так как у них есть тот самый «авторитет». Вместе с этим у таких сайтов часто бывают хорошие поведенческие показатели, высокая добавочная ценность и ещё множество других причин, которые дают им иммунитет от злодеяний конкурентов.

Подобные манипуляции могут создать проблемы только молодому сайту, показатели которого только формируются.

🔥via @siteclinic_doctor
источник
2019 April 16
Дежурный SEO-доктор
❓Вопрос #349

Можно ли как-то определить, что сайт прокачивается через PBN сетку?

✔️ Вопрос принят.
источник
Дежурный SEO-доктор
💭 Ответы на вопросы!
#ответы

Вопрос #345
В метрике среди популярных поисковых фраз часто вижу те, по которым сайт не отображается в выдаче. При этом метрика говорит, что по этим запросам пользователи заходят на сайт и даже заявки оставляют. Руками проверяю эти запросы в поиске — сайта по ним в выдаче нет.
Как такое может быть? Проверяю в режиме инкогнито.

❗️ Ответ

Причин, почему вы не видите сайт в выдаче по определенным запросам, может быть несколько.

1️⃣ Тип запроса.
Поисковые фразы делят на два основные типа: геозависимые и геонезависимые. Первый тип предполагает разную выдачу в разных локациях. Например, запрос «заказать суши» будет показывать разную выдачу в Москве и в Красноярске. Выдача по запросу «как сделать суши»  будет одинаковой в разных регионах, так как запрос информационный.

2️⃣ Регион поиска в вашем браузере не совпадает с регионом поиска посетителя, которого зафиксировала Метрика.
Возможно, в вашем регионе сайт действительно не ранжируется по определенному запросу, а в другой геолокации – он в Топ-10. Проверить из какого региона заходят посетители по запросу, можно установив в метрике фильтр «Группировка – География – Страна». Таким  образом Вы увидите из какой страны перешел посетитель.

3️⃣ История браузера.
Обыкновенный переход в режим инкогнито не оберегает от персонализации выдачи. Нужно дополнительно очистить историю браузера и cookie-файлы. А лучше для объективной проверки позиций пользоваться специальными инструментами: онлайн-сборщиками позиций или инструментами для сравнения ТОПов, например, этим.

4️⃣ Вы проверяете запросы в период апдейта.
В это время выдача нестабильна, поэтому ТОП-10 может отличаться, даже при настройке региона и полностью «чистых» браузерах.

🔸via @siteclinic_doctor
источник
2019 April 17
Дежурный SEO-доктор
💭 Ответы на вопросы!
#ответы

Вопрос #341
Есть ли понимание, какие факторы изменились в ранжировании Google с мартовским апдейтом? Большой контентный проект с хорошим трафиком начал плавно терять трафик после апдейта и снижение до сих пор не остановилось. Сезонного спада нет, последние год-полтора проект уверенно рос.

❗️ Ответ
Мы считаем, что мартовское обновление алгоритма ― это продолжение развития апдейта, которое произошло в августе 2019 года. Это не откат августовского обновления.

Как повлиял апдейт в марте на сайты:

🔸 1. Восстановились позиции и трафик.
🔸
(После просадки в августе посещаемость вернулась)

После просадки позиций и трафика в августе 2018 года многие сайты провели ряд работ, которые по большей части относятся к оценке качества сайта. Основные изменения, которые вносили на просевших сайтах, многие из которых касались улучшения E-A-T:

1️⃣ Работа со страницами "О нас", "Контакты", "Условия использования сайта", "Правовая информация" и т. д.

2️⃣ Работы с основным контентом:

▫️анализ текстов на полезный контент;
▫️соответствие заголовка с самим текстом (раскрывает ли он суть);
▫️улучшение описаний на карточках товара (для интернет-магазинов);
- добавление информации об авторе и его авторитетности в тематике, а также авторитетных источниках информации со ссылками на них;
▫️добавление даты публикации/обновления контента.

3️⃣ На сайт добавлены страницы с биографиями авторов (сделан упор на квалификацию).

4️⃣ Проведены работы по улучшению репутации сайта на внешних ресурсах.

5️⃣ Закрыты от индексации низкокачественные страницы (с малым количеством контента, бесполезные для пользователей и т. п.).

6️⃣ Проведены работы по улучшению скорости загрузки сайта.

7️⃣ Уменьшение количества блоков рекламы (информационные площадки).

То есть прорабатывались все важные аспекты, которые влияют на качество сайта в глазах Google. За это Google поощрил сайты и вернул им трафик.

🔸 2. Упали позиции и трафик 🔸
(августовское обновление не сказалось на метриках или позиции и трафик улучшились).

Многие сайты, на которые не повлияло августовское обновление, или же у них стал расти трафик и позиции, сейчас просели.
Почему? После августовского апдейта многие посчитали, что если не затронуло или начали расти ― значит, менять и работать с E-A-T не нужно (значит, Google считает, что сайт хороший, раз я ТОП-1). Но, как оказалось в марте 2019, нет.
Поэтому стоит в первую очередь обратить внимание на пункты, описанные выше, которые помогли сайтам восстановиться.

🔸3. Выросли позиции и трафик 🔸
(Просадки в августе до этого не было)

Сайты, которые не пострадали в августе, но всё равно провели ряд работ по улучшению качества, репутации, повышения доверия и авторитетности, заметно выросли после обновления в марте 2019.

Если Вы ничего не делали, E-A-T у сайта не очень высокий ― пора задуматься. Или ждать просадки в августе =)


Совет! Чтобы понять на 99,8%, что с вашим сайтом не так, прочтите руководство Google по оценке качества сайта. Там детально и с примерами Google объясняет, какие сайты и страницы он считает низкокачественным, а какие ― отличными.


👉 via @siteclinic_doctor
Devaka SEO Блог
Руководство для асессоров Google (новая версия)
Недавно в открытом доступе появилась новая версия руководства Google для асессоров (люди, которые оценивают сайты, влияя на алгоритм). Версия 5.0 датирована мартом 2014 и содержит информацию о таких понятиях, как экспертность, авторитет, доверие и репутация сайтов и их страниц. Поисковые системы давно нанимают людей, которые помогают оценивать качество сайтов и эти данные влияют на создание новых надстроек к поисковым алгоритмам перед их обновлением в паблике. Для тех, кто не знаком с работой оценщиков, посмотрите это видео (англ). Асессоры действуют по определенной инструкции, где подробно описывается, какой сайт или страницу считать качественными, как их оценивать. Периодически Google обновляет эту инструкцию, также периодически эти инструкции каким-то образом оказываются в публичном доступе. Инструкция не содержит чего-то сильно отличающегося от того, что каждый день проповедуют Мэтт Каттс и его команда, однако, здесь есть больше данных о различии между высоким и низким качеством сайтов. В 5-й версии отличия…
источник