В файле Robots указаны карта сайта сформированная из административной части Битрикса и созданная с помощью стороннего сервиса, но Яндекс карту сайта не читает. Запросы робота к сайту есть, но карта не читается и соответственно изменения не появляются в поиске... Сайту уже почти год, помогите пожалуйста? В чём может быть ошибка?
Может лучше вопрос адресовать представителем Yandex, если Вы уверены, что проблема не на Вашей стороне.Как вариант можно воспользоваться: http://webmaster.yandex.ru/
В том то и дело что не уверен... В Яндекс обращался - отвечают шаблонно "Как только сайт будет соответствовать представлениям Яндекса, так сразу и проиндексируется..." Все рекомендации Яндекса постарался выполнить, но результатов нет... У меня впервые сайт на Битриксе - поэтому допускаю, что есть не доработки с моей стороны, но не могу понять какие?
agolovinsky, я дико извиняюсь, но посмотрите на свой сайт вот в этом сервисе http://www.promolab.ru/free/ не слишком ли много ключевых слов?! 266 совпадений ключевых слов с текстом страницы (569 слов) Плотность ключевых слов на странице: 46,74 % яша считает его как минимум поисковым спамом (на мой взгляд)
agolovinsky, на этом форуме бывали? http://forum.searchengines.ru/ очень рекомендую! По количеству знаков в ключевых словах и описании - нужно читать в яндекс вебмастере.
Кирилл Бакланов, c чего бы Яндексу плохо реагировать на index.php?SECTION_ID=372&ELEMENT_ID=2866 ? Юрл как юрл, у меня есть несколько своих первых сайтов, сделанных несколько лет назад - отлично в индексе сидят с нормальной посещаемостью. ЧПУ совсем для других целей...
agolovinsky, посмотрите robots.txt от более современных сайтов - он гораздо больше, больше блокированных масок выставлено - исключает большое число дублей, в том числе на поиске, тегах, различных уточняющих параметров в юрлах.
Тут дело не в Яндексе совсем а в Битре 100 % У меня есть два интернет-магазина на битриксе. Так вот на каждом из них примерно по 4000 страниц. В индексе яндекса по 1000 страниц. Гугл схавал все на ура. А вот Яша не хавает. Я бы подумал что сайты не соответствуют правилам Яндекса и тд. НО: 1. Контент абсолютно уникальный 2.Никакой оптимизации под ключи нет. 3.Карта xml есть . 4.Ну одинаковая картина на двух сайтах не просто так!!! А служба техподдержки Битры отмахивается сваливая все на Яшу. Помогите советом, плиз!
Максим ТП правы, прием тут Битрикс и индексация сайта, у меня 5 своих проектов и не на одном не ощущаю проблем с индексацией, на одном из проектов, доля с поиска доходит до 80% причем с Яндекса она более 65%.
Гугл достаточно быстро индексирует сайты, Яндекс делает это медленнее, само быстро сколько я смог добиться от Яндекса индексации, представлено на картинке - это в среднем раз в 8-14 дней.
Для новых проектов, данный срок может быть и месяц и более, по последней тенденции Яндекса, желательно нахождения сайта в Яндекс Вебмастере, добавьте свой проект туда и посмотрите, что с ним происходит.
Карту загружает быстро, да. Но страницы в поиск не попадают(Не надо отвечать, что страницы не оптимизированы или контент плохой , у меня не первый интернет-магазин).
Юрий Волошин пишет: Для новых проектов, данный срок может быть и месяц и более, по последней тенденции Яндекса, желательно нахождения сайта в Яндекс Вебмастере, добавьте свой проект туда и посмотрите, что с ним происходит.
У нас этот сайт не индексируется уже год!!! И поверьте мне я далеко не первый год в SEO . Эти сайты конечно же есть в вебмастере и что толку Яша говорит что он его всего видит. Вы покажите свои сайты которые у Вас на ура индексируется. Может они одностраничные? А я вам покажу свои. Вы ведь спецы по Битре вот и подскажите что то конструктивное а не просто так не о чем как отвечают на все тикеты.
Похожая ситуация, верно? Только толку от того, что он использует мало. Страницы не попадают в индекс. Я не претендую на звание Гуру SEO, но общение в этих кругах позволяет мне предположить, что сайты на Битриксе Яндекс индексирует плохо.
Артем Северин пишет: Похожая ситуация, верно? Только толку от того, что он использует мало. Страницы не попадают в индекс. Я не претендую на звание Гуру SEO, но общение в этих кругах позволяет мне предположить, что сайты на Битриксе Яндекс индексирует плохо.
Позвольте узнать, а какое значение имеет CMS? Какая бы она ни была любая страница это код HTML, его генерирует и Битрикс и джумла и вордпресс и остальные... и в целом эти страницы для поисковой системы одинаковы - код HTML.
Олег Постоев пишет: Позвольте узнать, а какое значение имеет CMS? Какая бы она ни была любая страница это код HTML, его генерирует и Битрикс и джумла и вордпресс и остальные... и в целом эти страницы для поисковой системы одинаковы - код HTML.
Докладываю, cms значение для индексации имеет и достаточно значимое. Скрость загрузки (тоесть генерация этого самого HTML кода), всякий хлам в виде дублей страниц и тд. Все эти косяки усложняют индексацию для ПС.
И все таки вопрос к Уважаемому администратору Юрию - что за магическая цифра 1000 страниц в индексе на обоих сайтах??? Это не фильтр Яши это скорее всего отсечка бота на инспектирование страниц сайта из-за долгого отклика страниц. Сервер у нас хороший и он проинспектирован, работает быстро (сервак выделенный) А вот к работе Битрикса очень большие вопросы. Вы поможите конструктивно или нет?
Максим Ковальчук пишет: Докладываю, cms значение для индексации имеет и достаточно значимое. Скрость загрузки (тоесть генерация этого самого HTML кода), всякий хлам в виде дублей страниц и тд. Все эти косяки усложняют индексацию для ПС.
Со скоростью соглашусь - из коробки Битрикс может быть медленнее конкурентов, особенно старшие редакции. Но все таки это вопрос больше к разработчикам и администраторам - настройка кеширования, сжатие CSS, отключение мусора на странице, nginx и т.д. А вот дубли страниц, тут-то CMS при чем, если вы делаете одинаковые страницы на сайте? Их также можно и в джумле на копировать.
Максим Ковальчук пишет: Тут дело не в Яндексе совсем а в Битре 100 % У меня есть два интернет-магазина на битриксе. Так вот на каждом из них примерно по 4000 страниц. В индексе яндекса по 1000 страниц. Гугл схавал все на ура. А вот Яша не хавает. Я бы подумал что сайты не соответствуют правилам Яндекса и тд.
Гениально! Вы не знаете как решить проблему, но вы знаете кто виноват!
Зачем же таким профи чужие советы?
Цитата
Максим Ковальчук пишет: Дубли страниц не руками разработчиков делаются а генерятся cms
Только если руки растут не из плеч, а из поясницы (или откуда пониже оной).
Цитата
Максим Ковальчук пишет: Это не фильтр Яши это скорее всего отсечка бота на инспектирование страниц сайта из-за долгого отклика страниц.
Если у вас не стоит модуля веб аналитики, то такого функционала нет в коробке. Если и сервак у вас под это не настроен, то сайт тут ни при чём. А вот контент - очень даже.
P.S. Если считаете, что я просто вас троллю - пройдитесь в мой профиль, полистайте старые записи в блоге. Я SEO не один год занимался в своё время.