"размножение" страниц из-за GET-параметров с точки зрения SEO
16 июля 2012, 16:28
Автор: 1234ru
Часто веб-страницы основным своим содержимым имеют те или иные списки (например, категории товаров в интернет-магазине, тематические разделы статей на сайте и пр.).
Интерфейсы таких списков бывают для удобства снабжены инструментами сортировки и фильтрации (проще говоря, поиска).
Широко используется технологический подход, при котором действие подобных инструментов основывается на работе GET-параметров. В результате появляется несколько адресов, которые указывают на одну и ту же (либо даже урезанную) выборку - например, /books и /books?sort=date, /books?sort=date&price[max]=1000 и т.п., при этом ссылки на сортировку могут встречаться в явном виде в коде страницы.
При этом в GET-параметрах могут встречаться и годные для поисковых систем параметры (как то номер страницы), на которые следует обращать их внимание и позиционировать такие страницы как действительно разные.
Проблему здесь можно усмотреть в следующем: не очень хорошо, когда поисковик видит много страниц и знает, что из них большинство - это одно и то же. Он так меньше "уважает" сайт (есть такое поверье, что лучше, чтоб поисковик знал про 100 страниц сайта, чем знал про 200 и считал половину дубликатами).
Вопрос: действительно ли это проблема и стоит ли предпринимать в связи с этим какие-то действия?
Если да, то какие из нижеперечисленных оправданы? (возможно, какие-то из них окажутся достаточными?)
1. Следить, чтобы в HTML-коде страниц не было ссылок с лишними GET-параметрами (то есть, например, разбивку на страницы делать ссылками, а переключение сортировки закрывать с помощью javascript).
2. При проектировании пространства адресов страниц ясно представлять, какие адреса показывают действительно отличное содержимое, а какие - нет.
Соответственно формировать содержимое <title> страниц (например, для разных страниц списка дополнять <title> надписью "страница такая-то", а для разных режимов сортировки и прочего такого не делать).
В то же время, в содержимом страниц какие-то отличия будут (вплоть до того, что придется писать "книги ценой до 1000 руб.", т.к. это удобно для пользователей - это может немного сбить поисковую машину).
3. Реализовать альтернативный технологический подход, по которому параметры списка хранятся не в GET-массиве, а в переменных сессии.
В этом случае вся проблема отпадает, но появляются некоторые ограничения (например, нельзя дать ссылку непосредственно на отфильтрованную и/или отсортированную выборку), и, кроме того, такой подход гораздо сложнее реализуем технологически.
Как считаете?
Интерфейсы таких списков бывают для удобства снабжены инструментами сортировки и фильтрации (проще говоря, поиска).
Широко используется технологический подход, при котором действие подобных инструментов основывается на работе GET-параметров. В результате появляется несколько адресов, которые указывают на одну и ту же (либо даже урезанную) выборку - например, /books и /books?sort=date, /books?sort=date&price[max]=1000 и т.п., при этом ссылки на сортировку могут встречаться в явном виде в коде страницы.
При этом в GET-параметрах могут встречаться и годные для поисковых систем параметры (как то номер страницы), на которые следует обращать их внимание и позиционировать такие страницы как действительно разные.
Проблему здесь можно усмотреть в следующем: не очень хорошо, когда поисковик видит много страниц и знает, что из них большинство - это одно и то же. Он так меньше "уважает" сайт (есть такое поверье, что лучше, чтоб поисковик знал про 100 страниц сайта, чем знал про 200 и считал половину дубликатами).
Вопрос: действительно ли это проблема и стоит ли предпринимать в связи с этим какие-то действия?
Если да, то какие из нижеперечисленных оправданы? (возможно, какие-то из них окажутся достаточными?)
1. Следить, чтобы в HTML-коде страниц не было ссылок с лишними GET-параметрами (то есть, например, разбивку на страницы делать ссылками, а переключение сортировки закрывать с помощью javascript).
2. При проектировании пространства адресов страниц ясно представлять, какие адреса показывают действительно отличное содержимое, а какие - нет.
Соответственно формировать содержимое <title> страниц (например, для разных страниц списка дополнять <title> надписью "страница такая-то", а для разных режимов сортировки и прочего такого не делать).
В то же время, в содержимом страниц какие-то отличия будут (вплоть до того, что придется писать "книги ценой до 1000 руб.", т.к. это удобно для пользователей - это может немного сбить поисковую машину).
3. Реализовать альтернативный технологический подход, по которому параметры списка хранятся не в GET-массиве, а в переменных сессии.
В этом случае вся проблема отпадает, но появляются некоторые ограничения (например, нельзя дать ссылку непосредственно на отфильтрованную и/или отсортированную выборку), и, кроме того, такой подход гораздо сложнее реализуем технологически.
Как считаете?