Использование Expires или Cache-Control в заголовке

Тема в разделе "PrestaShop", создана пользователем Humo, 28 окт 2014.

Информация :
Хочешь в разделе без проблем общаться - прочти правила, чтобы потом с форумом на время не прощаться. Читать обязательно!
Внимание! Читайте внимательно правила!Предупреждения выдаются без всяких вопросов. Нарушил - получил. Будьте Внимательнее! Постинг нескольких постов подряд приравнивается к НАРУШЕНИЮ! Будьте вежливы и соблюдайте правила ;-)
Модераторы: NightHunter, ZiX
  1. Humo

    Humo Создатель

    Регистр.:
    5 янв 2014
    Сообщения:
    40
    Симпатии:
    0
    Беда подкралась незаметно-) Допустимая нагрузка на сервер хостера увеличилась, а потому сейчас занимаюсь вопросов оптимизации престы.
    В частности прописываю время кэширования для определенных скриптов и картинок.
    С помощью сервиса https://developers.google.com/speed/pagespeed/insights проверяю скорость и смотрю чего он мне пишет.

    И вот вопрос: как установить бОльшее время кэширования для отдельных файлов модуля?
    Например для .../themes/PR0126/css/global.css
    А еще беда в том, что каким-то образом несколько картинок товаров физически лежат в папке p/, но ссылка отображается вообще странная /3861-home_default/vetochki-r50-10.jpg
    такой папки у меня нет вообще.
    Пробовали удалить позицию и сделать новую с другим чпу, названием, артикулом - снова сохраняет там, но отображается вот такое.
    И как прописать кэш-контроль для этих неведомых файлов...

    Преста 1.5.6.1., товаров 1200, пользователей в сутки примерно 400-500.
     
  2. eladan

    eladan Постоялец

    Регистр.:
    26 июн 2011
    Сообщения:
    111
    Симпатии:
    23
    если тормозит при таком посещение с таким количеством, меняйте хостинг. лучше на vds перейти. кеширование в браузере клиентов вам сильно погоды не сделает. на вдске хотябы мемкеш, а лучше apc поставите и все летать будет.

    преста картинки разбивает на размеры под превью, карточку товара, вывод в боксе и т.д. смотрите в настройках изображений. папки home_default у вас и не будет. у престы своя система хранения изображений, они разбиваются на подпапки и складываются в каждую папку с разными размерами.
     
  3. Humo

    Humo Создатель

    Регистр.:
    5 янв 2014
    Сообщения:
    40
    Симпатии:
    0
    да, про картинки уже поняла, спасибо! испугали они меня этим неведомым адресом-)

    перейти на норм хост пока что финансовые рамки не позволяют, поэтому ищу бюджетные решения, которые могу применить самостоятельно.
     
  4. eladan

    eladan Постоялец

    Регистр.:
    26 июн 2011
    Сообщения:
    111
    Симпатии:
    23
    firsrtvds тчк ру - вполне приемлемое бюджетное решение.
     
  5. Humo

    Humo Создатель

    Регистр.:
    5 янв 2014
    Сообщения:
    40
    Симпатии:
    0
    спасибо! посмотрела ссыль, хорошие цены очень даже!

    И еще подскажите, если сможете.
    Есть у меня топ 10 айпишников, которые делали больше всего запросов к сайту за последние сутки. Часть уже заблокирована из-за ддос-атаки, а остальные обращаются к разным страницам сайта и ничего особо не делают, вроде. Но!
    1800 запросов за сутки с одного айпи - это достаточно много, на мой взгляд.
    Пробила все через 1whois тчк ru, но там нет инфы по владельцу, а только провайдер. Так же попадались гугл и яндекс, видать боты индексации.
    А вот остальные - как проверить, что это за айпи, что хотел и это просто покупатель или какой-то "злоумышленник"?
     
  6. eladan

    eladan Постоялец

    Регистр.:
    26 июн 2011
    Сообщения:
    111
    Симпатии:
    23
    для гугла и яндекса, если оставляют много запросов, надо ставить тайминг-ограничения в robots для пауков. ip в интернете только искать. поставьте метрику, смотрите статистику. можно визор не надолго включить (потом выключить) и смотреть по ip покупателей.
     
  7. Humo

    Humo Создатель

    Регистр.:
    5 янв 2014
    Сообщения:
    40
    Симпатии:
    0
    метрика стоит, статистику вижу. посмотрю визор, спс!
    как поставить ограничения для ботов почтовых?

    где?
     
  8. eladan

    eladan Постоялец

    Регистр.:
    26 июн 2011
    Сообщения:
    111
    Симпатии:
    23
    В robots. txt добавить Crawl-delay для поисковика после директивы Disallow и Allow
    Пример:
    User-agent: Yandex
    Disallow: /...
    Allow: /...
    Crawl-delay: 10
     
    Humo нравится это.