Чистка сайта от ненужного контента
У всех есть мусор на сайте! Что-то просто низкого качества, а что-то давно нуждается в сортировке или утилизации, до которой руки обычно не доходят. Выглядят такие страницы безобидно, до тех пор, пока не испортят рейтинг всего сайта.
Заказать полный аудит контента вашего сайта вы можете в нашей компании, мы составим полный отчет по качеству и юзабилити сайта. Наши специалисты подскажут как правильно распределить вес станиц и как их грамотно оптимизировать сайт под поисковые системы.
Почему нужно искать мусор на сайте?
Допустим, вы запускаете сайт с большим количеством “плохих” страниц. Гугл видит их низкое качество, пользователи обходят их стороной либо быстро покидают. В таком случае у вас будут серьезные проблемы, потому что, опасение поискового робота, подтвержденное поведенческим фактором часто ведет к санкциям.
Но. Поисковый робот в ранжировании учитывает и другие факторы, оценивая общую динамику домена, а не его конкретных страниц. Поисковик смотрит на ваш сайт и видит массу крутых страниц, с релевантным и уникальным контентом, потом дело доходит до тех страниц, которые мы выше обозначили мусором (плохой контент, низкие показатели релевантности, отсутствие канонизации). И тут возникает та самая дилемма. Как проранжировать сайт (хаотично смешавшуюся массу плохих и хороших страниц) в контексте данного конкретного запроса?
Необходимо установить правильное соотношение качественных страниц и мусора. Потому что мусор - это ваш минус, а хорошие страницы - плюс.
Что такое мусор на сайте?
Все это висит мертвым грузом на сайте сейчас и обязательно принесет проблемы в будущем:
- Страницы с низкой уникальностью контента;
- Страницы с небольшим количеством информации;
- Дубликаты страниц;
- Отдельные баги оформления или верстки.
Гугловский Панда алгоритм точно забьет тревогу, если количество таких (мертвых) страниц превысит допустимые нормы, при этом пострадает не только рейтинг “слабого звена”, но и всего сайта.
Помимо проблем с пандой или минусинском, потенциально опасны эти страницы и с точки зрения индексации. Там, где роботу придется перелопатить огромное количество страниц-мусора, прежде, чем найти и проиндексировать более полезные страницы.
Опасность грозит, в том числе пользовательской части. У вас может быть нормальная конверсия, “плохие” страницы могут даже приносить вам трафик и ранжироваться выше, чем более релевантные. Но оставлять их в таком виде не разумно. Потому что либо пользователь, либо робот, найдя такую страницу у вас на сайте обидится и уйдет, что в долгосрочной перспективе все равно плохо! Необходимо найти и обезвредить хлам так, чтобы его состояние удовлетворяло и юзера, и поисковую машину.
С точки зрения простой человеческой логики, которую иногда применяют пользователи, информация может быть полезной, а вот поисковый движок запросто проигнорирует ту же страницу при индексации. Потому что критерии “полезности” веб-страницы разные для робота и юзера.
Что влияет на ранжирование:
- Проверка ссылок на конкретную страницу (релевантность, авторитетность);
- Проверка ссылок на уровне домена (общее кол-во ссылок на домен, авторитетность и т.д.);
- Ключевики в зависимости от расположения в html коде страницы;
- Ключевики на уровне домена;
- Трафик на страницу в масштабе сайта.
Поисковый аудит на поиск мусора
Простое и логичное решение проблемы использовать Google Analytics, Yandex Metrika или любую другую систему веб аналитики. Нам нужны эти инструменты аналитики в качестве фильтра для мусора.
Есть два варианта:
- Практически любая метрика запросто выступит фильтром страниц по проценту отказа, времени визита и т.д. Задаем определенный критерий, например, показать страницы с процентом отказа выше 90%. Получаем определенную массу “отстающих”, дальше анализируем их по другим показателям.
- Устанавливаем среднее время на сайте и минимальное время на сайте, средний показатель отказов и минимальный показатель. Теперь выбираем 50% результатов ниже заданной планки, отсеиваем результаты. Этот процесс охватывает страницы низкого качества, страницы с дублирующимся контентом скорее всего будут отображаться там же, где оригиналы.
Для того чтобы снизить показатель отказав в Google Analytics, необходимо указать системе время потраченное пользователем на странице. По умолчанию код аналитики не учитывает посетителя, который просмотрел одну страницу. Инструкция по корректировке кода на этой странице.
Не все страницы с низким рейтингом относятся к потенциально опасным. В частных случаях бывают исключения, простая информативная страница не обязана быть супер объемной, если она и без этого выполняет свои функции.
Мораль такова - бесполезное, но безобидное сейчас, обязательно натворит бед в будущем! Следите за качеством страниц, сортируйте мусор на своем сайте, проводите регулярные уборки.
Можете заказать у нас полный аудит и чистку сайта, для этого оставьте запрос в свободной форме.