• DONATE to NULLED!
    Форуму и его команде можно помочь, мотивировать модераторов разделов.
    Помогите модератору этого раздела killoff лично.

Помощь Двойной слеш после адреса сайта

Lazy_bones

Постоялец
Регистрация
11 Дек 2008
Сообщения
432
Реакции
108
Обнаружил у себя на сайтах, что все страницы сайта имеют дубли такого плана.
site.ru/page.html
site.ru//page.html
Отличается количеством слешей.

Думал что не так с .htaccess заменил на оригинальный и ничего не помогло. Пробовал включить и выключить - Обрабатывать неверные URL ЧПУ, но также ничего не помогло.
Потом пошел смотреть как у людей и обнаружил что и на других, не моих DLE такая же беда.
К примеру вот сайт, достаточно известный




И проблема в том, что яшка где то находит такие ссылки. Просканил сайт PageWeight но не нашел внутри сайта не одной такой ссылки.
Кто подскажет как победить такой недуг? Версия DLE 9.7.
Или может какое правило для .htaccess чтобы 301 редирект был

 
дык закрой через robots чтоб яшка не хавал

а вообще можно убрать в engine/data/config.php
в адресе сайта на параметре http_home_url

а еще можно категории в админке упорядочить, там кнопка есть такая
а еще можно кеш почистить
а еще я хз )))
 
Можно редирект сделать через php
Яндекс возможно ссылки находит не на сайте, а переходит по внешним ссылкам такого вида на ваш сайт
 
и гоша не схавает, что не умеешь с robots работать?
Ну я так понимаю правило будет таким
Disallow: //*
но гоша то открыто заявляет, что роботс для него лишь рекомендация, а не инструкция... а вот 301 редирект или meta noindex это уже инструкция....
Нужно 100% решение, а не надежда что обойдется.

Можно редирект сделать через php
Яндекс возможно ссылки находит не на сайте, а переходит по внешним ссылкам такого вида на ваш сайт

в этом я совсем не силен, но понимаю что можно. Но нужно что также и 301 ответ отдавал, а не просто редиректил.
 
но гоша то открыто заявляет, что роботс для него лишь рекомендация, а не инструкция
Бред ) Учитывая еще тот факт что он дубли при ранжировании автоматом убирает
 
Бред ) Учитывая еще тот факт что он дубли при ранжировании автоматом убирает
берд не бред, но действительность именно таковая, по крайней мере у меня.
Иначе бы google в панеле вебмастера не отображал дубли страниц ссылаясь на те, которые закрыты в robots. Дубли имеются в виду те, которые он показывает по одинаковым тайтлам и дескрипшенам. И пока 301 редирект не ставлю, он их так и не убирает не с индекса, не с дублей в панеле вебмастера.
 
301 редирект появился, кажись, ещё с 9.7 А по хорошему, надо ставить 10.0 и включить контроль ссылок - проблема иссякнет.
 
301 редирект появился, кажись, ещё с 9.7 А по хорошему, надо ставить 10.0 и включить контроль ссылок - проблема иссякнет.
У меня как раз 9.7 и там есть контроль ссылок, но он не обрабатывает данную проблему.
Горбушка, у Вас нет рабочего сайта не DLE 10, чтобы проверить точно ли нет данной проблемы, чтобы зря не мучаться с обновлениями
 
Назад
Сверху