WebSite X5Help Center

 
Evgenij G.
Evgenij G.
User

Найдены страницы-дубли с get-параметрами  ru

Auteur : Evgenij G.
Visité 1633, Followers 3, Partagé 0  

Яндекс вэбмастер выявил критичные ошибки по сайту, а именно: Найдены страницы-дубли с GET-параметрами.

Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.

Яндекс рекомендует использовать директиву Clean-param в robots.txt.

Мне не совсем понятно, как это сделать с моими страницами, кто в курсе подскажите?

GET-параметр у меня: no_redirect

Вот примеры страниц которые доблируются:

https://motor-tester.ru/po-disco-express.html?no_redirect=true

https://motor-tester.ru/adblue-emulyator-mochevini-sistemi-scr.html?no_redirect=true

https://motor-tester.ru/po-disco-express.html?

https://motor-tester.ru/adblue-emulyator-mochevini-sistemi-scr.html?

Как избавиться от ?no_redirect=true и ? в конце url?

Posté le
21 RéPONSES - 1 UTILES
Aleksej H.
Aleksej H.
Moderator

Здравствуйте.

"Мне не совсем понятно, как это сделать с моими страницами, кто в курсе подскажите?" - учитывая особенности структуры URL адресов страниц, которые генерирует WebSite X5, скорее весго, Clean-param Вам не слишком хорошо подойдёт. Так как прийдёться писать много директив. Например:

Clean-param: no_redirect /po-disco-express.html

Это объеденит все URL адреса с параметром "no_redirect" для страниц с окончанием "po-disco-express.html". Таких параметров и страниц у Вас может быть много.


"Как избавиться от ?no_redirect=true и ? в конце url?" - модно сделать то, что рекомендует Яндекс: "3. Если по каким-то причинам предыдущие пункты вам не подходят, закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц. Поэтому мы рекомендуем использовать Сlean-param как основной способ.". Можно запретить все страницы с параметрами (если нет значимых страниц с параметрами):

Disallow:/*?*

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
Здравствуйте. "Мне не совсем понятно, как это сделать с моими страницами, кто в курсе подскажите?" - учитывая особенности структуры URL адресов страниц, которые генерирует WebSite X5, скорее весго, Clean-param Вам не слишком хорошо подойдёт. Так как прийдёться писать много директив. Например: Clean-param: no_redirect /po-disco-express.html

А там где вопрос после html: Clean-param: ? /po-disco-express.html ?

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Указав это:

Disallow:/*?*

Вы запрещаете для индексации все URL адреса, содержащие знак "?".

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
Указав это: Disallow:/*?* Вы запрещаете для индексации все URL адреса, содержащие знак "?".

Это я понял, но яндекс рекомендует использовать директиву Clean-param, якобы если запретить индексацию при помощи Disallow на сервер все равно возможно будет нагрузка.

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

"... Disallow на сервер все равно возможно будет нагрузка." - нет. В справке Яндекса написано: "Чтобы быстро снять нагрузку от робота, добавьте директиву Disallow в файл robots.txt. Робот перестанет обращаться к указанным страницам в течение суток после внесения изменений в файл.".

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
"... Disallow на сервер все равно возможно будет нагрузка." - нет. В справке Яндекса написано: "Чтобы быстро снять нагрузку от робота, добавьте директиву Disallow в файл robots.txt. Робот перестанет обращаться к указанным страницам в течение суток после внесения изменений в файл.".

Спасибо 

Lire plus
Posté le de Evgenij G.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
"... Disallow на сервер все равно возможно будет нагрузка." - нет. В справке Яндекса написано: "Чтобы быстро снять нагрузку от робота, добавьте директиву Disallow в файл robots.txt. Робот перестанет обращаться к указанным страницам в течение суток после внесения изменений в файл.".

Disallow: *? такой вариант также сработает?

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

"Disallow: *? такой вариант также сработает?" - нет.

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
"Disallow: *? такой вариант также сработает?" - нет.

# запрещаем индексацию результатов поиска и другого возможного "мусора"
Disallow: /*?*
Disallow: /*?

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Достаточно так:

Disallow: /*?*

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
Достаточно так: Disallow: /*?*

Спасибо, добавил, жду переобхода роботом. 

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Не за что. Удачи.

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
Достаточно так: Disallow: /*?*

После переобхода роботом проблема осталась. Еще не понятно откуда берутся такие страницы: https://motor-tester.ru/blog/?tag=COM&no_redirect=true я блог удалил с хоста, а робот откудато их находит.

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Вы изменили robots около 3-го сентября. 7-го написали, что проблема осталась. Не уверен, что 4 дня достаточно. Я бы подождал, хотябы 2-3 недели.

Касательно URL блога (с параметрами), дирректива Disallow: /*?* и их тоже запрещает. Я бы рекомендовал подождать. Сомневаетесь - пишите в тех. поддержку Яндекса. Укажите что и когда Вы сделали и спросите, почему это не помогло. Возможно они Вам ответят, что надо подождать.

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
Вы изменили robots около 3-го сентября. 7-го написали, что проблема осталась. Не уверен, что 4 дня достаточно. Я бы подождал, хотябы 2-3 недели. Касательно URL блога (с параметрами), дирректива Disallow: /*?* и их тоже запрещает. Я бы рекомендовал подождать. Сомневаетесь - пишите в тех. поддержку Яндекса. Укажите что и когда Вы сделали и спросите, почему это не помогло. Возможно они Вам ответят, что надо подождать.

Вчера по новой включил на переобход, буду ждать. 

Lire plus
Posté le de Evgenij G.
Evgenij G.
Evgenij G.
User
Auteur
Aleksej H.
Disallow: /*?* 

Такой способ не подходит так как он блокирует такие ссылки https://motor-tester.ru/product/?schup-igla-krasnij если в корзине товаров установлено на страницу продукта.

Иакой вариант: Clean-param: no_redirect /po-disco-express.html вроде помог. Еще по эксперементирую.

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

На счёт "Disallow: /*?*" я Вам сразу написал: "Можно запретить все страницы с параметрами (если нет значимых страниц с параметрами)".

Lire plus
Posté le de Aleksej H.
Evgenij G.
Evgenij G.
User
Auteur
  • Aleksej H.
    На счёт "Disallow: /*?*" я Вам сразу написал: "Можно запретить все страницы с параметрами (если нет значимых страниц с параметрами)".
  • Да спасибо 
Lire plus
Posté le de Evgenij G.
Evgenij G.
Evgenij G.
User
Auteur

Не ужели, надеюсь на долго )

Lire plus
Posté le de Evgenij G.
Evgenij G.
Evgenij G.
User
Auteur

Может кто знает откуда берутся эти страницы с get-параметрами в программе x5?

Особенно их много в БЛОГЕ!

Lire plus
Posté le de Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Рад, что Ваша проблема решена.

"Может кто знает откуда берутся эти страницы с get-параметрами в программе x5?" - особенности генерации URL этой программы. На сколько я знаю в Joomla, WordPress, OpenCart и т.д. тоже есть такие проблемы. Особенно, при использовании на сайте каких-то сторонних компонентов, модулей, плагинов.

Lire plus
Posté le de Aleksej H.