Google игнорирует robots.txt???

Статус
В этой теме нельзя размещать новые ответы.

FL@SH

Читатель
Заблокирован
Регистрация
20 Июл 2008
Сообщения
193
Реакции
25
  • Автор темы
  • Заблокирован
  • #1
Добрый день. Вот, столкнулся с проблемой. Есть сайт на DLE. В него вставил роботс.тхт вот такого содержания

User-Agent: *
Disallow: /user/

с целью убрать из индексации страницы с профилями пользователей. Яша ни одного профиля не проиндексировал, а гуг все ссылки Для просмотра ссылки Войди или Зарегистрируйся индексирует. Может я что-то неправильно в robots.txt сделал? :(
 
Добрый день. Вот, столкнулся с проблемой. Есть сайт на DLE. В него вставил роботс.тхт вот такого содержания

User-Agent: *
Disallow: /user/

с целью убрать из индексации страницы с профилями пользователей. Яша ни одного профиля не проиндексировал, а гуг все ссылки Для просмотра ссылки Войди или Зарегистрируйся индексирует. Может я что-то неправильно в robots.txt сделал? :(
хз, может глюк какой
попробуй без слеша на конце
т.е Disallow: /user
 
Добрый день. Вот, столкнулся с проблемой. Есть сайт на DLE. В него вставил роботс.тхт вот такого содержания

User-Agent: *
Disallow: /user/

с целью убрать из индексации страницы с профилями пользователей. Яша ни одного профиля не проиндексировал, а гуг все ссылки Для просмотра ссылки Войди или Зарегистрируйся индексирует. Может я что-то неправильно в robots.txt сделал? :(


ты сделал все верно, просто обожди пока все обновится, если хочешь чтобы страницы выпали побыстрей то удали страницы в в панеле для вебмастера у гугли.
 
robots.txt это не указание, а рекомендации для Гугла
с Яшей тут попроще
 
Все написано верно у тебя в роботсе, остается ждать, можно еще новый сайтмап сделать без этих ссылок и скормить Гоше, тогда он в пару днeй лишнее должен выкинуть из индекса)
 
Добрый день. Вот, столкнулся с проблемой. Есть сайт на DLE. В него вставил роботс.тхт вот такого содержания

User-Agent: *
Disallow: /user/

Может я что-то неправильно в robots.txt сделал? :(

Всё нормально! Не беспокойтесь, пройдёт после обновлений в гугле, по-крайней мере сделано всё правильно, остаётся только ждать :ay:

P.s. По поводу того, что robots.txt для гугли это лишь рекомендации, а не указание в корне несогласен, всегда работал роботс как для яши, как для гугли, так и для других разумных поисковых систем. ;)
 
Как вариант продублировать ниже

User-Agent: googlebot

персонально для бота гугла, а не абстрактное для всех, может тогда он сообразит.

Так же можно использовать на страницах мета-тег:

<meta name="robots" content="noindex">


или

<meta name="googlebot" content="noindex">

, запрет на использование кэша данных страниц:

<meta name="robots" content="noarchive">

Если уж совсем плохо, то зарегся в панели гугл для вебмастеров и там есть пункт в разделе связи с гугл "Запрос на пересмотр сайта".
 
В инструментах для вебмастеров у яндекса и гугля есть возможность тестирования роботс.тхт. Воспользуйся ей и проверь конкретные урлы на индексацию.

Если эти урлы запрещены - удали их через те же панели - это самый быстрый метод.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху