[QUOTE]Евгений Смолин написал:
В robots.txt запрещаете индексирование Disallow: /*&showall_1= и /*?showall_1=.
В header ставите <link href="https:// ваш_домен.ру/ваш_адрес_страницы" rel="canonical" />, тогда пусть хоть 1000 одних и тех же страниц с разными параметрами, поисковики будут индексировать только нужные версии.
Ну и совсем уж хардовый варианты - для "лишних" страниц ставьте в header <meta name="robots" content="noindex, nofollow" />
Все изменения в header придется писать самостоятельно - нет штатных механизмов. [/QUOTE]
Спасибо, а почему так могло произойти с дублями? Я где-то допустил ошибку?
В robots.txt запрещаете индексирование Disallow: /*&showall_1= и /*?showall_1=.
В header ставите <link href="https:// ваш_домен.ру/ваш_адрес_страницы" rel="canonical" />, тогда пусть хоть 1000 одних и тех же страниц с разными параметрами, поисковики будут индексировать только нужные версии.
Ну и совсем уж хардовый варианты - для "лишних" страниц ставьте в header <meta name="robots" content="noindex, nofollow" />
Все изменения в header придется писать самостоятельно - нет штатных механизмов. [/QUOTE]
Спасибо, а почему так могло произойти с дублями? Я где-то допустил ошибку?