Помощь Robots блокирует ссылки в sitemap

Komodnik

Добрый человек
Заблокирован
Регистрация
22 Май 2012
Сообщения
347
Реакции
260
  • Автор темы
  • Заблокирован
  • #1
Друзья, подскажите пожалуйста, в чем может быть проблема и как это можно решить?
YC8pmDm.png


Robots.txt:

Sitemap:
 
Там можно посмотреть, какие именно страницы блокируются роботсом.
 
  • Автор темы
  • Заблокирован
  • #3
Там можно посмотреть, какие именно страницы блокируются роботсом.
Подскажите как єто можно сделать, где посмотреть. Вы можете конкретно показать страницу в роботс и в карте?
 
Инструмент проверки файла robots.txt
там внизу есть строка для ввода адреса. Вводите любую заблокированную страницу и оно сразу покажет какой директивой блокируется индекс.
 
  • Автор темы
  • Заблокирован
  • #5
Разобрался сам. На форумах нашел инфу что касается опенкарта. Удалил одну строку из роботс и всё решилось.
 
Доброго времени суток
У меня точно такая же проблема. Причем, пишет не ошибку а предупреждение.
Пробовал пустой файл robots.txt но, проблема не проходит. (возможно надо подождать несколько дней?)
Инструмент проверки от гугл пишет, что страница не заблокирована.
Имеется
site.com
site.com/about_us , указываются гуглом как пример.
Все банальные варианты уже проверил:
sitemap.xml доступен, открывается быстро. (единственное что, нет физического файла, он генерируется и выдается)
robots.txt доступен
Пример сайта привести не могу. Версия opencart 2.0.1.1
Буду признателен, за любую помощь в данном вопросе.
 

Вложения

  • Screenshot_2.png
    Screenshot_2.png
    37 KB · Просмотры: 8
Доброго времени суток
У меня точно такая же проблема. Причем, пишет не ошибку а предупреждение.
Пробовал пустой файл robots.txt но, проблема не проходит. (возможно надо подождать несколько дней?)
Инструмент проверки от гугл пишет, что страница не заблокирована.
Имеется
site.com
site.com/about_us , указываются гуглом как пример.
Все банальные варианты уже проверил:
sitemap.xml доступен, открывается быстро. (единственное что, нет физического файла, он генерируется и выдается)
robots.txt доступен
Пример сайта привести не могу. Версия opencart 2.0.1.1
Буду признателен, за любую помощь в данном вопросе.
У меня была схожая проблема, только с версией 1.5, но я изменил robots и прописал корректно файл sitemap и через время, после очередной индексации - прошло.
 
В общем, я разобрался. Так совпало, что у меня несколько сайтов выпускались плюс минус в одно и тоже время.
В какой-то момент времени google нашел сайт, понюхал роботс в котором написано закрыть от индексации все и всех и запомнил это.

Когда я открыл сайт для ПС страницы были скушаны, но даже главная и информационные страницы были якобы заблокированы - причина в том, что гугл не успевает переварить информацию разными сервисами одновременно.

Я ничего не делал и через 2 недели все ошибки чудесным образом пропали. Хочу подчеркнуть, это "работает" в случае, если проверка robots.txt говорит что все в порядке.
 
Назад
Сверху