Согласно официальной информации, от Google, теперь для оптимальной индексации и обработки страниц Google рекомендует не скрывать используемые на сайте внешние файлы изображений, JavaScript и CSS в robots.txt, а давать гуглботу полный к ним доступ. Закрытие этих файлов может привести к неверному распознаванию страниц и повлиять на ранжирование.
Чтобы сайт правильно отображался, добавил в robots.txt исключения
Прошло достаточно времени с анонса, поэтому интересует мнение тех, кто последовал рекомендации Гугла. Есть какие видимые результаты (положительные и отрицательные)? Допустим, после разрешения CSS и JS, Googlebot грамотнее проиндексировал ваш сайт. Или вдруг наоборот, стало хуже.
Scrooge написал: Я пока не заметил никакого результата.
Спасибо. Ну, отсутствие результата это тоже результат. Я тоже разрешил CSS и JS, правда не стал рисковать и создал в robots правила только для Googlebot. Яндекс не просил, значит ему и не надо.
Да, эту новость я видел. Может в этом и суть была? В прошлом году предупредили, чтоб открыли CSS, а вот теперь могут проверить оптимизацию сайта под смартфоны.