Друзья, если кто то сталкивался с проблемой закрытия от поисковиков дублирующих страниц (отобранных по свойствам товаров в умном фильтре), поделитесь
Сейчас кроме закрытия отдельно в robort.txt адреса с выбором наборов свойств по каждому разделу (например, такой страницыhttps://galatekstil.ru/catalog/postelnoe_belye/komplekty_postelnogo_belya/satin_ 100_khlopok/filter/b... ), тех. поддержка ничего рекомендовать не может. у меня 16 тыс. товаров. И на эту задачу и на постоянное отслеживание новых свойств у новых товаров уйдет уйма времени.
Например В каждой ссылке на фильтр есть слово filterhttps://galatekstil.ru/catalog/dlya_kukhni/rukavitsy_prikhvatki_fartuki/filter/m aterial-is-вафельное , можно же дать команду робот. тхт (этому роботу), чтобы он закрыл все ссылки со словом filter от поисковиков.
Но как это сделать? это скрипт нужно писать или какую то волшебную строку написать?
спасибо
Сейчас кроме закрытия отдельно в robort.txt адреса с выбором наборов свойств по каждому разделу (например, такой страницы
Например В каждой ссылке на фильтр есть слово filter
Но как это сделать? это скрипт нужно писать или какую то волшебную строку написать?
спасибо