запрет индексации страниц с сессиями

Статус
В этой теме нельзя размещать новые ответы.

Bigann

Создатель
Регистрация
5 Апр 2007
Сообщения
16
Реакции
3
Подскажите пожалуйста как запретить индексацию гуглем страниц с сессиями. Гугл себе в индекс добавил n-ное количество раз одни и теже страницы -> попадали позиции. Скоро, наверное, вообще с индекса выпадут. Для гугла надо в .htacess прописывать ведь что-то? Если да, прошу написать что конкретно. А вообще неплохо бы было не только для гугла, а для всех поисковиков запретить индексацию страниц с сессиями. Или скажите как сессии отключить в скрипте 4images. Только не надо ссылки кидать, начитался уже и всё перепробовал
 
Подскажите пожалуйста как запретить индексацию гуглем страниц с сессиями. Гугл себе в индекс добавил n-ное количество раз одни и теже страницы -> попадали позиции. Скоро, наверное, вообще с индекса выпадут. Для гугла надо в .htacess прописывать ведь что-то? Если да, прошу написать что конкретно. А вообще неплохо бы было не только для гугла, а для всех поисковиков запретить индексацию страниц с сессиями. Или скажите как сессии отключить в скрипте 4images. Только не надо ссылки кидать, начитался уже и всё перепробовал

покажи как линки формируются.
index.php?sessid=89230741234 - так?
 
что то типа вот такого: file.php?imageid=123&sessionid=xxxxxxxxx
 
единственный "извращённый" вариант, который приходит в голову это развернуть sessid в спицифический урл и его забанить его в htaccess. проще показать на примере:

морда: ./page.php
морда+параметр: ./page.php?param=mysess
моя сессия: ./page.php?sessid=4859928343?param=mysess

делаешь такой урл:

морда: ./page/
морда+параметр: ./page/?param=mysess
моя сессия: ./page/sess/4859928343/?param=mysess

и в robots.txt
disallow: ./page/sess/*
 
Это не моё, стянул в нете:

"Управлять поведением поисковых роботов можно с помощью файла robots.txt, в нем можно явно разрешить или запретить для индексации те или иные страницы. Существует также специальный тег «NOINDEX», позволяющий закрыть для индексации отдельные части страницы, однако этот тег поддерживается только российскими поисковыми системами"
 
ну конечно же!... юзай роботс.тхт... там напиши:

Disallow: /file.php?imageid=123&sessionid=

только проверь чтоб ты нужное не запретил! в такой конструкции будет доступен документ file.php?imageid=123 , а все сессии будут недоступны..
 
тю... я думаю что в robots нельзя параметры ставить в урл. сорри за предыдуший пост - получается что бред ;)
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху