Пошукова оптимізація

Технічна оптимізація сторінок пагинации

На сьогоднішній день seo-оптимізатори використовують різні методи при роботі зі сторінками пагинации. Якогось універсального або на 100% правильного методу в даному випадку бути не може – все залежить від ресурсу та цілей даних сторінок.

Для початку трохи термінології:

У веб-дизайні під пагінація розуміють посторінковий вивід інформації, показ обмеженій частині інформації на одній (веб)-сторінці.

Сторінки з пагінація – це сторінки з параметрами, які обмежують висновок кількість результатів за замовчуванням. Наприклад, 10 результатів пошуку на сторінці або висновок 30 карток товарів на сторінці категорії інтернет-магазину.

Для чого потрібна пагинация?

Пагинация сприяє юзабіліті сайту і спрощує його використання. Уявімо собі ситуацію, коли на сторінці каталогу інтернет-магазину представлений весь асортимент, тобто десятки тисяч товарів. Технічно це можливо, але наскільки ця сторінка буде юзабельна? Буде користувачеві зручно «працювати» з даною сторінкою? Відповідь – однозначно ні. Також не варто забувати, що швидкість інтернет-з’єднання на даний момент обмежена, отже, чим більше товарів на сторінці, тим довше вона буде прогружаться в браузері користувача.

Які проблеми можуть виникнути при неправильному налаштуванні пагинации?

  1. Дублювання контенту.
  2. Зміна релевантних сторінок в пошуковій видачі.
  3. Присутність у видачі нерелевантних або неактуальних сторінок.
  4. Утруднення індексування і витрата краулингового бюджету сайту.
  5. Збільшення навантаження на сервер сайту при його сканування пошуковими ботами.

Давайте розглянемо деякі шляхи вирішення даних проблем:

Метод 1. Закриття сторінок пагинации у файлі robots.txt

Приміром, Disallow: /*?

Мінуси даного методу: у разі відсутності карти сайту можливі проблеми з індексуванням контенту. Також втрачаємо посилальну вагу з зовнішніх ресурсів (у разі їх наявності). Передача деяких показників, важливих для пошукової системи Яндекс, зі сторінок пагинации не буде вироблятися.

Метод 2. Закриття сторінок пагинации через метатег name=”robots”

Варіанти:

  1. <meta name=”robots” content=”noindex, nofollow” /> Мінуси даного методу всі ті ж, що і при закритті сторінок через robots.txt
  2. <meta name=”robots” content=”noindex, follow” /> Мінуси – втрата посилального ваги з зовнішніх ресурсів у разі їх наявності на сторінці пагинации, передача деяких показників (важливих для пошукових систем) зі сторінок пагинации не буде вироблятися, з індексуванням контенту в даному випадку проблем не буде.
  3. <meta name=”robots” content=”noindex” /> = <meta name=”robots” content=”noindex, follow” />
  4. <meta name=”robots” content=”none” /> = <meta name=”robots” content=”noindex, nofollow” />

В даних метатегах параметр noindex забороняє до індексації вміст сторінки. Параметр nofollow забороняє переходити по посиланнях на цій сторінці.

Метод 3. Уникализация сторінок пагинации через теги, метатеги і написання цих сторінок додаткових унікальних текстів

Мінуси методу: заточка різних сторінок пагинации під різні запити працювала 5 років тому. На даний момент, за нашими спостереженнями, це неефективно і може призвести до пессимізації ресурсу. Також для виконання даного методу необхідні великі обсяги додаткових робіт, які в майбутньому не дадуть потрібного результату.

Як в такому випадку діяти з даними сторінками? Давайте подивимося, що нам рекомендують пошукові системи:

  1. Google: рекомендації для вебмайстрів тут і тут.
  2. Яндекс: на жаль, у довідці немає даних про те, як чинити зі сторінками пагинации. Але зате є інформація в офіційному блозі для інтернет-магазинів тут і загальна інформація у довідці про атрибут rel=”canonical” тут.

Ознайомившись з цією інформацією, ми зробили висновок, що Яндекс рекомендує нам налаштувати атрибут rel=”canonical” на першу сторінку сайту. А Google каже, що так робити не зовсім вірно – і у них є для цього спеціальний атрибут rel=”next” rel=”prev”, який допоможе пошуковій системі визначити, що дані сторінки пов’язані між собою.

І якщо ми уважно прочитаємо коментарі в блозі Яндекса від Платона Щукіна, то дізнаємося:

Схоже, що це найбільш підходящий варіант як для Яндекса, так і для Google.

Виходячи з вищесказаного, отримуємо четвертий варіант оптимізації:

Метод 4. Налаштувати атрибут rel=”canonical” на сторінки «Показати все»

Це ідеальний варіант, який підійде і для Яндекс і Google.

Але знову він не влаштує багатьох вебмайстрів та користувачів сайтів з великою кількістю збірок (статей, товарів, оголошень), так як подібні сторінки будуть завантажуватися дуже довго, а бажана завантаження сторінки повинна бути не більше 5-7 секунд. І чим швидше, тим краще (не плутати з часом відповіді сервера – воно повинно бути не більше 0,2 секунд). Є варіант – підключити нескінченну прокрутку, але знову можуть виникнути проблеми з боку пошукових систем. Досі ПС складно обробляють php і ajax-елементи, періодично виникають проблеми з індексацією вмісту і при зборі даних систем аналітики.

Метод 5. Віддача різного вмісту в залежності від призахідного пошукового бота

Докладного опису даного методу надавати не буду, так як він потрапляє під визначення «маскування» у Google (детальніше) і під визначення «клоакінг» у Яндекса (детальніше).

Але реалізація надає щось на зразок наступного:

<?php
if ( strstr($_SERVER[‘HTTP_USER_AGENT’], ‘Yandex’) )
{echo ‘Виводимо канонічний url’;}
elseif ( strstr($_SERVER[‘HTTP_USER_AGENT’], ‘Googlebot’) )
{echo ‘Виводимо rel=”next” rel=”prev”‘;}
else
{
{echo ‘Можна нічого не виводити’;}
}
?>

В результаті отримуємо:

  • Для Яндекс:

  • Для Google:

  • І те, що виведе користувачам браузер:

Варіант складений за першою рекомендації у довідці Google:

P. S. Не рекомендую використовувати даний метод.

Метод 6. Вибрати пріоритетну пошукову систему Яндекс або Google і дотримуватися її рекомендацій

З досвіду помічено, якщо ставити rel=”canonical” на першу сторінку, нічого критичного Google не відбувається: позиції, що припадають на ці сторінки, або не просідають, або відновлюються протягом 2-3 тижнів. Тому на цьому методі зупинимося більш докладно.

До речі, при реалізації на сайті rel=”canonical” з тегом <base href=””> виконувати ніяких дій не треба, хоча багато рекомендують. Це абсолютно два різних тега з різними функціями. Тег Base призначений для браузерів з управлінням контентом, в яких використовується відносний адресу. Ніякого відношення до індексації або пошуковим системам він не має.

Реалізація canonical на першу сторінку без параметрів на MODX Revolution (Yandex)

Варіант № 1:

Встановити Canonical snippet.

Варіант № 2:

Вручну проставити канонічні адреси.

Для початку необхідно перевірити, що [[*alias]] відпрацьовує нормально, дружні Url-у нас включені.

Далі переходимо на головну сторінку, дивимося полі «Псевдонім» на головній сторінці. Як правило, це буде або index, або glavnaya за замовчуванням.

Цей канонічний адреса для головної сторінки нас не влаштовує.

Найпростіше рішення – це скопіювати шаблон і замінити в ньому чанк head.

Копіюємо код шаблону (html) в Шаблон для головної, створюємо чанк з вмістом [[$headg]], замінюємо в шаблоні для головної [[$head]] на [[$headg]], призначаємо створений шаблон для головної сторінки.

У чанк [[$headg]] додаємо <link rel”canonical” href=”[[!++site_url]]”/>

У чанк для [[$head]] додаємо

<link rel=”canonical” href=”[[++site_url]][[*uri]]”/> якщо ваш url має закінчення / або .html

У разі якщо закриває слеш відсутнє або здійснюється редирект засобами .htaccess, то можна використовувати конструкцію

<link rel=”canonical” href=”[[++site_url]][[~[[*parent:is=`0`:then=`:else=`[[*parent]]`]]]][[*alias]]”/>

Після проведених дій перевіряємо канонічний адресу на всіх сторінках сайту.

Якщо сторінок сайту багато, рекомендую скористатися програмою для ПК ComparseR. У деморежиме вона дозволяє отпарсить до 150 сторінок сайту – як правило, для більшості сайтів цього вистачає.

Після перевірки видаляємо з файлу robots.txt правила, якщо вони є:

Disallow: /?
Disallow: /*?
Disallow: /index.php

За видалення дубльованого контенту тепер буде відповідальний атрибут rel=”canonical”

Настроювання атрибутів тега link rel=”canonical”, rel=”prev” rel=”next”

В даному випадку canonical у нас повинен вести на сторінку, на якій знаходиться пошуковий бот, наприклад, https://site.com/podborka/?page=3 – це позбавляє нас від дублювання контенту з дод. параметрами.

rel=”prev” https://site.com/podborka/?page=2 каже пошуковому боту про те, що є попередня частина цієї сторінки.

rel=”next” https://site.com/podborka/?page=4 подає сигнал пошуковому боту про те, що є продовження цієї сторінки (в разі її існування).

Висновок

У даній статті ми постаралися розглянути всі можливі плюси і мінуси реалізації оптимізації сторінок пагинации. Сказати, що якийсь із випадків саме ваш, не можна. Кожен сайт індивідуальний, у кожного сайту свої цілі, виходячи з цих цілей буде залежати, який вид реалізації підійде саме вашому сайту. Якщо хочете, щоб наші фахівці подивилися ваш сайт, то вам сюди.

P. S. Якщо є питання, задавайте, постараємося відповісти оперативно. Якщо є бажання розібратися і в інших темах SEO та інтернет-маркетингу, то підписуйтесь на нашу розсилку.

Related Articles

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Close