• DONATE to NULLED!
    Форуму и его команде можно помочь, мотивировать модераторов разделов.
    Помогите модератору этого раздела killoff лично.

Помощь Двойной слеш после адреса сайта

Проверил на 10.0 при включенной опции "Обрабатывать неверные URL ЧПУ" открыть статическую страницу и новость добавив после основного домена ////, в результате страница также открылась с этими слешами. Видимо этот пункт не обрабатывает слеши! А вообще если на сайте не было ни шеллов ни вирусов - откуда тогда могли вообще взяться страницы с такими урлами? Лучше всего наверно добавить правило в robots.txt для решения проблемы, а также было бы не плохо написать платону с уточнением информации где они берут такие ссылки!!!
 
Не в роботс, а в хтаксесс на 301 редирект. Только я его не напишу сходу...

У меня как раз 9.7 и там есть контроль ссылок, но он не обрабатывает данную проблему.
Горбушка, у Вас нет рабочего сайта не DLE 10, чтобы проверить точно ли нет данной проблемы, чтобы зря не мучаться с обновлениями
Объявление в разделе прочитай и подумай, стоит ли 9.7 юзать...
 
Проверил на 10.0 при включенной опции "Обрабатывать неверные URL ЧПУ" открыть статическую страницу и новость добавив после основного домена ////, в результате страница также открылась с этими слешами. Видимо этот пункт не обрабатывает слеши! А вообще если на сайте не было ни шеллов ни вирусов - откуда тогда могли вообще взяться страницы с такими урлами? Лучше всего наверно добавить правило в robots.txt для решения проблемы, а также было бы не плохо написать платону с уточнением информации где они берут такие ссылки!!!
Как вариант кто то оставил неправильную внешнюю ссылку. Оттуда и потекло..
Объявление в разделе прочитай и подумай, стоит ли 9.7 юзать...
у меня там смесь 9.7 и 9.8 по безопасности стоят заплатки и также сканер, который на мыло шлет, если что изменилось или добавилось. Пока все спокойно.
На 10 версию конечно хочется обновиться, но беспокоит совместимость сторонних модулей(так как сами разработчики не отписались о совместимости), а время потестировать все пока что нет.
 
Пишу новый пост, чтобы тема обновилась и люди пришли помочь.

Нашел откуда растут ноги на эту проблему.

Как и обсуждалось прописал в robots.txt - Disallow: //*
Обновил все до 10 версии еще в середине августа.

Сегодня захожу в панель вебмастера Гугла и смотрю файл sitemap.xml и вижу, что висит куча предупреждений о том что ссылки из sitemap.xml запрещены к индексации в роботс.
Полез в сам sitemap.xml и все ссылки на посты имеют двойной слеш т.е. site.ru//3435-hews.html
На всех стоит dle 10 версии. Причем такая проблема не у одного сайта, а на всех, у которых включено чпу с категорией site.ru/category/3435-hews.html
т.e. ссылки имеют вид site.ru//3435-hews.html что почему то сама категория теряется должно быть site.ru/category/3435-hews.html

Сама карта делается по крону cron.php?cronmode=sitemap каждые 3 часа. Сам файл cron.php тоже переименован на свой.

Сайты находятся на разных хостингах. Пара на своем сервере и пара на бегет.ру и еще пара на другом аккаунте на бегет.ру

Думал с файлами что не так. Проверил файл cron.php с тем что у меня. Все одинаково, есдинственно стоит $allow_cron = 1;

Потом проверил файл engine\ajax\sitemap.php он также идентичен с тем что в дистрибутиве.

Если делать sitemap.xml из админки, то делает правильно. Если делать по крону, то через раз почему то, то правильно, то нет.

Кто что подскажет?
 
Назад
Сверху