09:38 Внутренняя оптимизация сайта, технические моменты |
Очень распространенная проблема среди больших каталогов и интернет магазинов – категории и/или конечные страницы доступны по адресам со слешем на конце и без него. Так сложилось, что у нас на сайте url’ы страниц не имеют окончаний. Например, в меню сверху выбор города вел на url без слеша, а на главной странице и в форме поиска формировался url со слешем. И в итоге возникало у нас по две одинаковые страницы. Было решено бороться с дублями не с помощью 301 редиректа, как я всегда раньше делал, а используя метатег rel=canonical. Рискованный шаг, учитывая, что полной уверенности в успехе у меня не было, но был ряд причин пойти этим путем. О том, что это за мета-тег такой, как его использовать, как он работает и работает ли, я уже писал в посте — rel=“canonical” как эффективный способ борьбы с дублями. Ранее метод был экспериментально проверен, но ничто не заменит реальный опыт в боевых условиях. И вот теперь я с уверенностью могу сказать – да, действительно, rel=canonical работает и прекрасно справляется с дублями. Конечно, все внутренние ссылки на неканонические страницы поправили, чтобы вели на правильные адреса. Не отходя далеко от проблемы дублирования контента страниц, стоит сказать про различные параметры – это классика жанра. Когда параметры динамически формируются, то их последовательность в url может меняться, если параметров более одного, следовательно, одна и та же страница будет доступна по всем вариациям подстановок параметров в url. Вот и у нас было на сайте каждой страницы листинга по 2—3 дубля стабильно. Проблему решали так же с помощью rel=canonical. У меня часто спрашивают, а что делать со страницами пагинации (постраничная навигация по спискам и каталогам) – оставить в покое или закрыть от индексации? Универсального решения для всех сайтов нет и быть не может. Но на рассматриваемом сайте мы поставили на всех страницах тег rel=canonical с указанием на первую страницу. А чтобы поисковики не шастали по неканоническим страницам, ссылки на сами страницы сделали через AJAX, т.е. как таковых ссылок на странице теперь нет, а переключение происходит с помощью JavaScript. Сделано это потому, что страницы навигации одновременно разные и одновременно одинаковые (я уже говорил, что контент на них меняется примерно раз в час), так что достаточно и одной. Я вообще настоял на том, чтобы все ссылки на ненужные для поисковиков страницы скрыть от роботов, например, это ссылки сортировки результатов в таблице поиска. Робот будет ходить только по нужным страницам, а значит и индексировать сайт быстрее. Я уже однажды рассказывал вам про 5 способов скрыть любую ссылку от индексации, методы до сих пор работают, можете пользоваться. Помимо дублей самих карточек объектов, было много дублей title, что тоже не есть хорошо. Хоть и разные объекты, но они бывают расположены по одному адресу, в результате чего случался дубль. Я применил совершенно стандартное, как мне кажется, решение – добавлять в конец title номер (ID) объекта. Это решение я часто рекомендую клиентам с большими каталогами и интернет магазинами. На блоге я уже писал о том, почему стоит использовать именно мета тег, а не robots.txt. За продвижением или же за консультацией обращайтесь ко мне: |
|
Всего комментариев: 0 | |