запрет индексации страниц с сессиями

Тема в разделе "Вопросы новичков", создана пользователем Bigann, 19 июн 2008.

Статус темы:
Закрыта.
  1. Bigann

    Bigann Создатель

    Регистр.:
    5 апр 2007
    Сообщения:
    16
    Симпатии:
    3
    Подскажите пожалуйста как запретить индексацию гуглем страниц с сессиями. Гугл себе в индекс добавил n-ное количество раз одни и теже страницы -> попадали позиции. Скоро, наверное, вообще с индекса выпадут. Для гугла надо в .htacess прописывать ведь что-то? Если да, прошу написать что конкретно. А вообще неплохо бы было не только для гугла, а для всех поисковиков запретить индексацию страниц с сессиями. Или скажите как сессии отключить в скрипте 4images. Только не надо ссылки кидать, начитался уже и всё перепробовал
     
  2. pesdexx

    pesdexx Создатель

    Регистр.:
    23 янв 2008
    Сообщения:
    27
    Симпатии:
    0
    покажи как линки формируются.
    index.php?sessid=89230741234 - так?
     
  3. Bigann

    Bigann Создатель

    Регистр.:
    5 апр 2007
    Сообщения:
    16
    Симпатии:
    3
    что то типа вот такого: file.php?imageid=123&sessionid=xxxxxxxxx
     
  4. pesdexx

    pesdexx Создатель

    Регистр.:
    23 янв 2008
    Сообщения:
    27
    Симпатии:
    0
    единственный "извращённый" вариант, который приходит в голову это развернуть sessid в спицифический урл и его забанить его в htaccess. проще показать на примере:

    морда: ./page.php
    морда+параметр: ./page.php?param=mysess
    моя сессия: ./page.php?sessid=4859928343?param=mysess

    делаешь такой урл:

    морда: ./page/
    морда+параметр: ./page/?param=mysess
    моя сессия: ./page/sess/4859928343/?param=mysess

    и в robots.txt
    disallow: ./page/sess/*
     
  5. AlexShaman

    AlexShaman Постоялец

    Регистр.:
    30 мар 2007
    Сообщения:
    86
    Симпатии:
    5
    Это не моё, стянул в нете:

    "Управлять поведением поисковых роботов можно с помощью файла robots.txt, в нем можно явно разрешить или запретить для индексации те или иные страницы. Существует также специальный тег «NOINDEX», позволяющий закрыть для индексации отдельные части страницы, однако этот тег поддерживается только российскими поисковыми системами"
     
  6. missha

    missha Постоялец

    Регистр.:
    16 фев 2008
    Сообщения:
    55
    Симпатии:
    1
    ну конечно же!... юзай роботс.тхт... там напиши:

    Disallow: /file.php?imageid=123&sessionid=

    только проверь чтоб ты нужное не запретил! в такой конструкции будет доступен документ file.php?imageid=123 , а все сессии будут недоступны..
     
  7. pesdexx

    pesdexx Создатель

    Регистр.:
    23 янв 2008
    Сообщения:
    27
    Симпатии:
    0
    тю... я думаю что в robots нельзя параметры ставить в урл. сорри за предыдуший пост - получается что бред ;)
     
Статус темы:
Закрыта.