Для создания сайта и обеспечения его высоким уровнем посещаемости, присутствие на отдельных страницах дублей, нередко оказывает негативное воздействие. Дублями считаются страницы, которые доступны по разным адресам, но содержание у них одинаковое. В таком случае индексирующим роботом они объединяются в группу дублей. И робот сам выбирает, какая из страниц попадёт в поисковую выдачу. В связи с этим происходит уменьшение трафика для ресурса, поскольку для дублирующих страниц уже не будут появляться ссылки, приобретенные для других страниц.
Страницы-дубли могут появиться из-за особенности работы сайта или его CMS системы, а также естественным путём, когда страница с описанием товара находится в нескольких категориях интернет-магазина.
Различают два типа дублей страниц:
- четкие/полные дубли – это страницы, где размещенная на них информация целиком повторяет другие;
- нечеткие/неполные – это страницы, на которых информация дублируется частично.
Из-за дублей страниц могут возникнуть серьезные неприятности такие как:
- ранжирование нецелевых страниц;
- санкции поисковых систем;
- проблемы с индексацией страниц;
- потеря естественных ссылок, возникающих на страницах дублей.
С помощью поисковой системы можно легко и быстро обнаружить дублированные страницы при условии, если все правильно выполнить. Для этого необходимо всего лишь ввести адрес ресурса, который проверятся, а также фрагмент той или другой страницы. На сегодняшний день в Сети публикуется большое количество различных методов борьбы с такими дублями.
Найти дубли страниц можно с помощью различных платных и бесплатных онлайн-сервисов и программ, например:
Яндекс.Вебмастер. Самый популярный бесплатный сервис, который позволяет отслеживать и анализировать страницы сайта, его техническое состояние и позиции.
Netpeak. Платная программа с 14-ти дневной пробной версией, если провести поиск по необходимому сайту, она покажет все дублированные страницы и ошибки.
Xenu. Бесплатная программа, дающая возможность проанализировать даже не проиндексированные страницы, найти повторяющиеся мета-описания и заголовки.
Screaming Frog Seo Spider. Программа даёт возможность бесплатно проверить до 500 ссылок, далее необходима платная версия.
С дублями страниц можно бороться различными способами. Какие-то позволяют устранить появление новых дублей, а какие-то удалить старые. Самым лучшим вариантом является ручное удаление дублей, но для этого нужно хорошо понимать работу алгоритмов поисковой системы и разбираться в CMS на которой сделан сайт. Но страницы стоит удалять, если вы точно знаете, что на них не ссылаются другие ресурсы. Существуют и другие не менее хорошие, методы удаления дублей страниц.
301 редирект – метод, в основе которого лежит понятие переадресации поисковых роботов с одной страницы (с дубля) на другую (оригинальную). Настройка осуществляется с помощью файла .htaccess или с помощью плагинов. Старый файл через какое-то время выпадает из индекса, а весь ссылочный вес отдаётся новой странице. Этот способ хорошо чистит же проиндексированные ранее дублированные страницы.
Создание канонической страницы – метод, при котором поисковой системе указывается, какой документ нужно считать основным. Такая страница будет участвовать в поисковой выдаче и считаться основной. Для создания такой страницы необходимо в тегена всех страницах дублей прописать код с урлом оригинального документа:
Полые и частичные дубли усложняют продвижение сайта. Чтобы найти и устранить дубли страницы потребуется определённое время, но игнорировать данную проблемы специалисты не рекомендуют. Специалисты нашей компании при продвижении сайта обязательно проведут проверку на все дубли страниц на вашем ресурсе и применят все метода для их удаления описанные в выше.