Хотелось бы, чтобы при добавлении несуществующей переменной, происходило перенаправление на страницу без этого параметра а сейчас существует огромное количество дублей типа site.ru/?blablabla=1 site.ru/?blabla=1 site.ru/?bla=1 и.т.п.
написал: закрыть все страницы с гет параметрами в robots.txt не вариант?
можно конечно, но есть страницы с нужными GET параметрами меня интересует нет ли в Битриксе какого-нибудь стандартного массива с допустимыми GET параметрами, тогда можно было бы отсутствующие в таблице параметры просто удалять из URL
дело в том, что раньше этих паразитных параметров не было (вернее, сначала были, а потом разработчики по моей просьбе их как-то пофиксили) теперь разработчики сменились, внесли какие-то изменения - появились эти левые параметры (и полезли в индекс Яндекса) попросил новых разработчиков пофиксить, а они не умеют...
написал: по умолчанию закрыть все, потом создать массив разрешенных это если в robots.txt если на уровне пхп, тот же массив разрешенных с проверкой по массиву
вот тут пять лет назад народ с этим вопросом пытался разобраться, но похоже ничего не вышло
скрипт вот тут но надо иметь массив разрешенных переменных
а вот как этот массив создавать - непонятно
Вообще, можно поставить canonical без параметров, но Яндеск сначала индексирует страницы с параметрами, а потом, через некоторое время,выкидывает их из индекса Это постоянное добавление и выкидывание - не очень хорошо, отвлекает поисковик от индексации нужных страниц.
Если у вас везде настроено ЧПУ, то единственный GET параметр, который создает уникальные страницы - это параметр пагинации PAGEN_1, все остальные можете обрезать для поисковых роботов. Некоторые и PAGEN_1 обрезают. Так что с точки зрения SEO все параметры ненужные.
Если у вас везде настроено ЧПУ, то единственный GET параметр, который создает уникальные страницы - это параметр пагинации PAGEN_1, все остальные можете обрезать для поисковых роботов. Некоторые и PAGEN_1 обрезают. Так что с точки зрения SEO все параметры ненужные.
В том и дело, что Яндекс пытается индексировать страницы, с какими-то вообще несуществующими парамертами. А синтаксис Clean-param: не позволяет запретить все параметры кроме указанных. Нельзя написать Clean-param: !PAGEN_1
Сергей Журавлев написал: В том и дело, что Яндекс пытается индексировать страницы, с какими-то вообще несуществующими парамертами.А синтаксис Clean-param: не позволяет запретить все параметры кроме указанных.Нельзя написать Clean-param: !PAGEN_1
Соберите все GET параметры по списку страниц, которые нашел яндекс (вклюая дубли) и закройте в Clean-param
Если речь идёт о полном запрете индексирования, а не об использовании директивы Clean-param, то для описанной вами ситуации подойдёт такой набор директив:
Disallow: *?
Allow: *PAGEN_1