Уже который год на битриксе, а от автокеширования толку не было. Ну не снимало оно общей нагрузки с сервера. И тогда я решил заняться им вплотную.
Диспозиция - проект, на котором 20-30 тысяч страниц. Ежедневно Яндекс и Гугль индексируют по 10-20 тысяч страниц, не считая Yahoo и менее заметных роботов. Sitemap не ставим принципиально - вера не позволяет.
Основная нагрузка как раз идёт на громадный спред страниц, где-то по 5-6 тысяч в сутки. С использованием автокеширования с настройками по умолчанию получалось, что за 7200 секунд (2 часа) страницы успевали устаревать, и почти каждый раз при заходе пользователя, они создавались заново. Как результат - загрузка до 5.06 днём.
Контент на сайте, в основном, статика - статьи и новости. Динамика - только заголовки обновлений. Подсчитал среднюю частоту захода человека на одну страницу для страниц, созданных более месяца назад. И решил поставить автокеширование на 2 суток, то есть 86400 секунд. Закешировали буквально всё, что не должно быть динамическим - весь текст статей, новостей, поиск по тегам, архивы. Через 2 дня кеш "прогрелся", а загрузка сервера упала где-то до 2.17 в часы пик, то есть в два раза.
Теперь во-первых, пользователь всё ещё видит актуальную информацию, несмотря на то, что она берётся из кеша. Из-за закешированных "украшательств" типа облака тегов или списка похожих материалов, бот Google ежедневно индексирует в 1.5 раза меньше страниц. На Яндексе не отразилось.
Чего по-прежнему не хватает - это автоматического обновления кеша при обновлении элемента инфоблока. Когда меняем текст старой статьи, он не меняется до устаревания кеша. То ли глюк битрикса, то ли где-то собака порылась.
Так что примите к сведению - стоящие по умолчанию значения на время автокеширования не всегда хороши. Особенно для больших проектов.
Диспозиция - проект, на котором 20-30 тысяч страниц. Ежедневно Яндекс и Гугль индексируют по 10-20 тысяч страниц, не считая Yahoo и менее заметных роботов. Sitemap не ставим принципиально - вера не позволяет.
Основная нагрузка как раз идёт на громадный спред страниц, где-то по 5-6 тысяч в сутки. С использованием автокеширования с настройками по умолчанию получалось, что за 7200 секунд (2 часа) страницы успевали устаревать, и почти каждый раз при заходе пользователя, они создавались заново. Как результат - загрузка до 5.06 днём.
Контент на сайте, в основном, статика - статьи и новости. Динамика - только заголовки обновлений. Подсчитал среднюю частоту захода человека на одну страницу для страниц, созданных более месяца назад. И решил поставить автокеширование на 2 суток, то есть 86400 секунд. Закешировали буквально всё, что не должно быть динамическим - весь текст статей, новостей, поиск по тегам, архивы. Через 2 дня кеш "прогрелся", а загрузка сервера упала где-то до 2.17 в часы пик, то есть в два раза.
Теперь во-первых, пользователь всё ещё видит актуальную информацию, несмотря на то, что она берётся из кеша. Из-за закешированных "украшательств" типа облака тегов или списка похожих материалов, бот Google ежедневно индексирует в 1.5 раза меньше страниц. На Яндексе не отразилось.
Чего по-прежнему не хватает - это автоматического обновления кеша при обновлении элемента инфоблока. Когда меняем текст старой статьи, он не меняется до устаревания кеша. То ли глюк битрикса, то ли где-то собака порылась.
Так что примите к сведению - стоящие по умолчанию значения на время автокеширования не всегда хороши. Особенно для больших проектов.