WebSite X5Help Center

 
Evgenij G.
Evgenij G.
User

Найдены страницы-дубли с get-параметрами  ru

Autore: Evgenij G.
Visite 1634, Followers 3, Condiviso 0  

Яндекс вэбмастер выявил критичные ошибки по сайту, а именно: Найдены страницы-дубли с GET-параметрами.

Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.

Яндекс рекомендует использовать директиву Clean-param в robots.txt.

Мне не совсем понятно, как это сделать с моими страницами, кто в курсе подскажите?

GET-параметр у меня: no_redirect

Вот примеры страниц которые доблируются:

https://motor-tester.ru/po-disco-express.html?no_redirect=true

https://motor-tester.ru/adblue-emulyator-mochevini-sistemi-scr.html?no_redirect=true

https://motor-tester.ru/po-disco-express.html?

https://motor-tester.ru/adblue-emulyator-mochevini-sistemi-scr.html?

Как избавиться от ?no_redirect=true и ? в конце url?

Postato il
21 RISPOSTE - 1 UTILE
Aleksej H.
Aleksej H.
Moderator

Здравствуйте.

"Мне не совсем понятно, как это сделать с моими страницами, кто в курсе подскажите?" - учитывая особенности структуры URL адресов страниц, которые генерирует WebSite X5, скорее весго, Clean-param Вам не слишком хорошо подойдёт. Так как прийдёться писать много директив. Например:

Clean-param: no_redirect /po-disco-express.html

Это объеденит все URL адреса с параметром "no_redirect" для страниц с окончанием "po-disco-express.html". Таких параметров и страниц у Вас может быть много.


"Как избавиться от ?no_redirect=true и ? в конце url?" - модно сделать то, что рекомендует Яндекс: "3. Если по каким-то причинам предыдущие пункты вам не подходят, закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц. Поэтому мы рекомендуем использовать Сlean-param как основной способ.". Можно запретить все страницы с параметрами (если нет значимых страниц с параметрами):

Disallow:/*?*

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
Здравствуйте. "Мне не совсем понятно, как это сделать с моими страницами, кто в курсе подскажите?" - учитывая особенности структуры URL адресов страниц, которые генерирует WebSite X5, скорее весго, Clean-param Вам не слишком хорошо подойдёт. Так как прийдёться писать много директив. Например: Clean-param: no_redirect /po-disco-express.html

А там где вопрос после html: Clean-param: ? /po-disco-express.html ?

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Указав это:

Disallow:/*?*

Вы запрещаете для индексации все URL адреса, содержащие знак "?".

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
Указав это: Disallow:/*?* Вы запрещаете для индексации все URL адреса, содержащие знак "?".

Это я понял, но яндекс рекомендует использовать директиву Clean-param, якобы если запретить индексацию при помощи Disallow на сервер все равно возможно будет нагрузка.

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

"... Disallow на сервер все равно возможно будет нагрузка." - нет. В справке Яндекса написано: "Чтобы быстро снять нагрузку от робота, добавьте директиву Disallow в файл robots.txt. Робот перестанет обращаться к указанным страницам в течение суток после внесения изменений в файл.".

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
"... Disallow на сервер все равно возможно будет нагрузка." - нет. В справке Яндекса написано: "Чтобы быстро снять нагрузку от робота, добавьте директиву Disallow в файл robots.txt. Робот перестанет обращаться к указанным страницам в течение суток после внесения изменений в файл.".

Спасибо 

Leggi di più
Postato il da Evgenij G.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
"... Disallow на сервер все равно возможно будет нагрузка." - нет. В справке Яндекса написано: "Чтобы быстро снять нагрузку от робота, добавьте директиву Disallow в файл robots.txt. Робот перестанет обращаться к указанным страницам в течение суток после внесения изменений в файл.".

Disallow: *? такой вариант также сработает?

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

"Disallow: *? такой вариант также сработает?" - нет.

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
"Disallow: *? такой вариант также сработает?" - нет.

# запрещаем индексацию результатов поиска и другого возможного "мусора"
Disallow: /*?*
Disallow: /*?

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Достаточно так:

Disallow: /*?*

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
Достаточно так: Disallow: /*?*

Спасибо, добавил, жду переобхода роботом. 

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Не за что. Удачи.

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
Достаточно так: Disallow: /*?*

После переобхода роботом проблема осталась. Еще не понятно откуда берутся такие страницы: https://motor-tester.ru/blog/?tag=COM&no_redirect=true я блог удалил с хоста, а робот откудато их находит.

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Вы изменили robots около 3-го сентября. 7-го написали, что проблема осталась. Не уверен, что 4 дня достаточно. Я бы подождал, хотябы 2-3 недели.

Касательно URL блога (с параметрами), дирректива Disallow: /*?* и их тоже запрещает. Я бы рекомендовал подождать. Сомневаетесь - пишите в тех. поддержку Яндекса. Укажите что и когда Вы сделали и спросите, почему это не помогло. Возможно они Вам ответят, что надо подождать.

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
Вы изменили robots около 3-го сентября. 7-го написали, что проблема осталась. Не уверен, что 4 дня достаточно. Я бы подождал, хотябы 2-3 недели. Касательно URL блога (с параметрами), дирректива Disallow: /*?* и их тоже запрещает. Я бы рекомендовал подождать. Сомневаетесь - пишите в тех. поддержку Яндекса. Укажите что и когда Вы сделали и спросите, почему это не помогло. Возможно они Вам ответят, что надо подождать.

Вчера по новой включил на переобход, буду ждать. 

Leggi di più
Postato il da Evgenij G.
Evgenij G.
Evgenij G.
User
Autore
Aleksej H.
Disallow: /*?* 

Такой способ не подходит так как он блокирует такие ссылки https://motor-tester.ru/product/?schup-igla-krasnij если в корзине товаров установлено на страницу продукта.

Иакой вариант: Clean-param: no_redirect /po-disco-express.html вроде помог. Еще по эксперементирую.

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

На счёт "Disallow: /*?*" я Вам сразу написал: "Можно запретить все страницы с параметрами (если нет значимых страниц с параметрами)".

Leggi di più
Postato il da Aleksej H.
Evgenij G.
Evgenij G.
User
Autore
  • Aleksej H.
    На счёт "Disallow: /*?*" я Вам сразу написал: "Можно запретить все страницы с параметрами (если нет значимых страниц с параметрами)".
  • Да спасибо 
Leggi di più
Postato il da Evgenij G.
Evgenij G.
Evgenij G.
User
Autore

Не ужели, надеюсь на долго )

Leggi di più
Postato il da Evgenij G.
Evgenij G.
Evgenij G.
User
Autore

Может кто знает откуда берутся эти страницы с get-параметрами в программе x5?

Особенно их много в БЛОГЕ!

Leggi di più
Postato il da Evgenij G.
Aleksej H.
Aleksej H.
Moderator

Рад, что Ваша проблема решена.

"Может кто знает откуда берутся эти страницы с get-параметрами в программе x5?" - особенности генерации URL этой программы. На сколько я знаю в Joomla, WordPress, OpenCart и т.д. тоже есть такие проблемы. Особенно, при использовании на сайте каких-то сторонних компонентов, модулей, плагинов.

Leggi di più
Postato il da Aleksej H.