О дупликатах и неканонических страницах при имплементации пагинатора

Часы
02.03.2025
Часы
03.03.2025
Часы
3 минуты
Глазик
44
Сердечки
0
Соединённые точки
0
Соединённые точки
0
Соединённые точки
0

Вступление

Представьте себе, делаете вы себе сайт, никого не трогаете. У вас в индексе порядком 1000 страниц, а на следующий день, проснувшись и открыв Google Search Console, вы видите это:
Большую часть времени у меня в индексе было что-то около 1000 страниц: 80 статей, может ещё 100 страниц с инструментами, 100 определений и 100 ответов на вопросы. Остальные это страницы от пагинатора.
Я начал беспокоится о "некачественных страницах" с моей стороны. Ведь, кому будут интересны страницы пагинации, это ведь просто сборка имеющихся статей на сайте. И я начал действовать.

Про пагинатор на сайте

Давайте начнём разговор о пагинаторе. Или как я его называю сам Пагискрол. Дело в том, что мой пагискрол совмещает два вида обновления контента на сайте. Первый это пагинатор, то есть, есть некие кнопочки нажимая на которые ты переходишь на следующую страницу. Второй вид обновления контента, это так называемая бесконечная лента (infinity scroll). Контент сам прогружается, как только пользователь дойдёт до определённой отметки на странице.
Для тех, кто не в теме. По сути есть два вида пагинатора, ранжированный (offest pagination) и указательный (cursor pagination). В первом случае указывается сколько нужно вернуть объектов на страницу (т.е. статей) и ещё указывается с какого объекта начать. Может выглядеть так http://website.com/articles?items=10&offset=0 То есть, начать с 0 элемента и отдать ровно десять. Во втором случае создаётся указатель, который после отправляется в БД и она выдаёт соответствующий результат. Больше можно почитать в этой замечательной статье.
У меня первый вариант пагинации. Да, у меня номера страниц вместо предельного значения и количество возвращаемых элементов. Но они есть, просто они абстрагированы и пользователь не может ими манипулировать. (。╯︵╰。) Господи мне и так с этим пагинатором хватает проблем.

Про теггирование на сайте

Но, одним пагискролом (пагинатор + бесконечная лента) сыт не будешь. Хочется фильтрации, и возможности группировать контент на сайте по ключевым словам. Для этого есть такая штука как теггирование.
Вообще теггирование по-разному называют. У Printerest это пины, у Twitter и Instagram это хештеги. Кто-то их просто называет категориями. Но по сути они все имеют под собой одно и то же значение. Тег.
Теги позволили мне группировать контент на ещё более мелкие группы, плюс позволили кастомизировать и SEO-оптимизировать их. Ещё больше про теги и категории можно узнать из этой статьи.

Теперь про некачественный контент

Долгое время, количество проиндексированных страниц держалось на уровне 1000 страниц + ещё 10000 страниц с несовпадающим каноникалом или которые просто отсутствуют. Но после последнего обновления пагинатора, гугл смог найти куда больше страниц и проиндексировать их (8000 проиндексировано и 30000 с проблемами). Но, как видно, проблема с дупликатами осталась.
С этой проблемой сталкивается любой, мало-мальски сайт, с тем или иным пагинатором. И пути решения предлагаются разные. Начиная от закрытия страниц пагинации до хитроумных схем по манипулированию веса. Есть на самом деле ещё один вариант, это просто ни чего не делать. Гугл, да и другие поисковики не индексируют страницы абы как. И если эти страницы оказались в поиске, значит они из себя что-то да представляют.

Мои действия

И вот тут я тебя подловил. Я ничего не сделал. Да, лучшим вариантом в моём случае это просто ждать и смотреть как видимость моего сайта в поиске растёт, а вместе с ним и количество посетителей ٩(◕‿◕。)۶ . И ведь знаешь в чём ирония? Страницы пагинации, хоть и количественно превосходят любую категорию на моём сайте, дают меньше всего показов и кликов.
Чтобы не быть голословным, вот статистика за Февраль, всего сайта.
Я не SEO эксперт, но полагаю всё дело в распределении ссылочного веса и внутренней перелинковки моего сайта. Статьи с похожей тематикой объединяются на одной странице. Эта станица в свою очередь перераспределяет вес более слабым страницам, и они попадают в поисковую выдачу.
На моём сайте статья или инструмент могут делиться своим весом со страницей пагинации, только через хлебные крошки.
Это, кстати, применимо не только к Google поиску, но и к Яндексу тоже. Впервые за год с чем-то, он начал мне давать трафик. И куда лучше, чем от Гугла.

Выводы

Что ж, теперь про выводы, которые можно сделать. Не стоит рубить с плеча сразу и закрывать от индекса потенциально полезные страницы. Вообще, во всех блогах поисковых систем, как раз и рекомендуется об этом не думать и позволить им решать, индексировать эти страницы или нет.

Комментарии

(0)

captcha
Отправить
Сейчас тут пусто. Буть первым (o゚v゚)ノ

Другое