Альтернативные способы избавления от дублей страниц
В этой же статье речь пойдет о альтернативных способах удаления дубликатов страниц.
Появление дубликатов страниц означает, что вебмастер или владелец сайта допустил некоторую ошибку в организации работы ресурса. Дубли страниц имеют множество негативных воздействий на работоспособность сайта. При их наличии настройка ссылочного профиля становится неэффективной, посадочные страницы начинают игнорироваться поисковыми системами, а трафик разделяется между ненужными страницами. Не говоря уж о том, что время на индексацию контента значительно увеличится, а поисковики ухудшат свое отношение к вашему ресурсу. Поисковые роботы начнут чаще игнорировать страницы вашего сайта.
Причины появления дублей страниц
Дубликаты страниц чаще всего появляются от:
- Неадекватных настроек фильтров по сайту.
- Ошибочных показателях в настройках движка сайта, из-за которых он вновь и вновь воссоздает дубли страниц. В некоторых случаях количество дубликатов может достигать 5-6 единиц.
- Ошибки, сделанные во время организации и формирования структуры ресурса.
Альтернативные способы решения данной проблемы
Дубли страниц можно убрать с помощью Google Webmaster Tools или же другими специализированными программами (например, Xenu). Однако существуют и другие способы избавления от дубликатов.
Ручное удаление
Если ваш сайт имеет небольшой объем (не более чем 200 страниц), то вполне возможно заняться ручным удалением дубликатов. Такое количество страниц один человек вполне сможет перебрать самолично.
Настройка файла robots.txt
С помощью директивы Disallow можно запретить роботам поисковых систем заходить на все еще неиндексированные дубликаты страниц. Для этого в robots.txt нужно написать такие строки:
User-agent: Название поисковой системы (Google, Yandex, Bing и т. д.)
Disallow: адрес дубликата
Использование мета-тега noindex
Как и предыдущий способ, этот не удаляет дубликаты страниц, но запрещает поисковым системам индексировать указанные дубликаты. Для этого в head страницы необходимо добавить такую строку:
<meta name=”robots” content=”noindex”>
Использования перенаправления 410
Альтернативный вариант, которые призван заменить предыдущие два способа. Для этого в файл .htaccess, который отвечает за конфигурацию сервера, добавляется такая строка:
Redirect 410 /tag/адрес дубля
Это позволяет убелить поискового робота, что страничка не существует.
Итоги
Это далеко не все способы избавления от дубликатов. Но с помощью них вы сможете эффективно избавится от данной проблемы.