Здравствуйте,
Согласно , теперь для оптимальной индексации и обработки страниц Google рекомендует не скрывать используемые на сайте внешние файлы изображений, JavaScript и CSS в robots.txt, а давать гуглботу полный к ним доступ. Закрытие этих файлов может привести к неверному распознаванию страниц и повлиять на ранжирование.
Чтобы сайт правильно отображался, добавил в robots.txt исключения
Посмотрел свой сайт как Googlebot, вроде все хорошо.
Собственно вопрос, нужно ли добавлять ещё какие-нибудь исключения и планирует ли битрикс что-либо менять в системе учитывая эту информацию?
Согласно , теперь для оптимальной индексации и обработки страниц Google рекомендует не скрывать используемые на сайте внешние файлы изображений, JavaScript и CSS в robots.txt, а давать гуглботу полный к ним доступ. Закрытие этих файлов может привести к неверному распознаванию страниц и повлиять на ранжирование.
Чтобы сайт правильно отображался, добавил в robots.txt исключения
| Код |
|---|
Allow: /bitrix/templates/template_1ctema_folder Allow: /bitrix/cache/ |
Посмотрел свой сайт как Googlebot, вроде все хорошо.
Скрытый текст |
|---|
![]() |

