Доброго времени, форумчане! Возник такой вопрос. Генерируем файлик sitemap в админке. Он создается, но в процессе его изучения я обнаружил некие странности. Создаются дубли страниц
По этому поводу мне сообщили, что кто-то раньше как то настраивал создание сайтмепа по своему, что бы как мне объяснили "было видно, что страница обновляется, а не заброшена". Но как кажется мне, яндекс с гуглом это посчитают дублями, но затратят гораздо больше времени на индексирование. Да и ранжирование наверняка понизится. Знающие люди, огромная просьба - подскажите, что с этим делать? Оставить так, как есть, если это не повлияет на продуктивность работы, или же нужно как то бороться с подобным явлением?
Ранжирование скорее всего не изменится. Просто Яша с Гошей будут выбирать из этого листа самую "релевантную" ссыль на своё усмотрение. Отсальные будут выкидывать из поиска. В общих чертах это скорее всего плохо. Лучше сделать 1 ссылку + настроить к ней <lastmod></lastmod>.
Ещё из плюсов - настроить отдачу заголовка if-modified-since в добавок.
А вообще, это всё догадки и предположения. SEO слишком туманная область. Я заню примеры, когда похожая ситуация давала минуса по выдаче, но знаю и ситуации, когда всё было наоборот.
P.S. этот вопрос правильнее задавать куда-то типа серченджинс.гуру
Вот тогда беда. Но я бы в любом случае исправил бы, путем настройки карты заново, так как там могут быть и другие ошибки(битые и устаревшие ссылки, редкое обновление и тд). Если это типовой функционал глючит, то исправление через ТП битрикса.
Вот тогда беда. Но я бы в любом случае исправил бы, путем настройки карты заново, так как там могут быть и другие ошибки(битые и устаревшие ссылки, редкое обновление и тд). Если это типовой функционал глючит, то исправление через ТП битрикса.
У дублей есть 1 минус. Тот же яша сейчас не всегда склеивает дубли. А просто 1 выкидывает из поиска, второй наоборот закидывает в поиск.
И тут может быть такая ситуация, что если у обоих страниц есть вес, он не просуммируется, пока страницы не склеятся. А вот это уже плохо, это потеря позиций на пустом месте.
Леонид Малов, В исходном вопросе ссылки одинаковые, то есть это одна ссылка которая несколько раз написана. По сути о дублях на самом деле не идет речь, просто в файле карты сайта несколько раз написана одна ссылка, что не есть дубль в сео терминологии.
В вашем случае sitemap формируется с помощью модуля "Поиск" из поискового индекса (могу об этом судить только исходя из названия файла). Если у вас в sitemap есть дубли, значит и в поисковом индексе сайта есть дубли, а значит и в поисковой выдаче сайта (если на сайте используется поиск с помощью модуля "Поиск" все будет точно также). Конечно, если у вас процедура генерации sitemap "допилена", то всякое может быть. На вашем сайте по запросу Kaspersky Internet Security я не смог найти ни одного результата.
Поисковый индекс формируется поисковым индексатором. Индексатор сканирует исследуемые модули (файлы и папки из управления структурой, инфоблоки, форумы, блоги) и на основании настроек формирует ссылки на них. Если в инфоблоках индексатор нашел 3 одинаковых ссылки, значит в каталоге есть 3 товара, которые в действительности имеют одинаковые ссылки. Но если у вас сайт сильно кастомизирован, то все правила индексации могут быть изменены до неузнаваемости, поэтому невозможно совершенно точно сказать, что у вас не так с генерацией sitemap.