• DONATE to NULLED!
    Форуму и его команде можно помочь, мотивировать модераторов разделов.
    Помогите модератору этого раздела killoff лично.

Информация Идеальный robots.txt для DLE

Статус
В этой теме нельзя размещать новые ответы.
Лучший роботс это после индексации сайта начинаете смотреть страницы сайта в выдаче и в зависимости от ваших желаний и целей добавляете страницы в роботс.тхт

- у кого цель больше страниц не будет закрывать от индексации печать, юзеров и т.д.
- у кого цель качество, закроет печать, юзеров, годы, месяца и календарь и прочие страницы на которых нет информации.

Универсального средства - нет
 
PHP:
User-Agent: *

Crawl-delay: 10
Request-rate: 1/5
Visit-time: 0600-0845

Disallow: /index.php?do=pm
Disallow: /index.php?do=stats
Disallow: /index.php?do=search
Disallow: /index.php?do=addnews
Disallow: /?do=lastcomments
Disallow: /index.php?do=register
Disallow: /index.php?do=feedback
Disallow: /index.php?do=lostpassword
Disallow: /index.php?subaction=newposts
Disallow: /autobackup.php
Disallow: /admin.php
Disallow: /favorites/
Disallow: /statistics.html
Disallow: /newposts/
Disallow: /*print
Disallow: /out/
Disallow: /cache/
Disallow: /cgi-bin/
Disallow: /engine/
Disallow: /language/
Disallow: /templates/
Disallow: /images/
Disallow: /forum/
Disallow: /backup/
Disallow: /files/

User-Agent: aport
Disallow: /

User-agent: Aqua_Products
Disallow: / 

User-agent: asterias
Disallow: / 

User-agent: b2w/0.1
Disallow: / 

User-agent: BackDoorBot/1.0
Disallow: / 

User-agent: BecomeBot
Disallow: / 

User-agent: Black Hole
Disallow: / 

User-agent: BlowFish/1.0
Disallow: / 

User-agent: Bookmark search tool
Disallow: / 

User-agent: BotALot
Disallow: / 

User-agent: BuiltBotTough
Disallow: / 

User-agent: Bullseye/1.0
Disallow: / 

User-agent: BunnySlippers
Disallow: / 

User-agent: Cegbfeieh
Disallow: / 

User-agent: CheeseBot
Disallow: / 

User-agent: CherryPicker
Disallow: / 

User-agent: CherryPicker /1.0
Disallow: / 

User-agent: CherryPickerElite/1.0
Disallow: / 

User-agent: CherryPickerSE/1.0
Disallow: / 

User-agent: Copernic
Disallow: / 

User-agent: CopyRightCheck
Disallow: / 

User-agent: cosmos
Disallow: / 

User-agent: Crescent
Disallow: / 

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: / 

User-agent: DittoSpyder
Disallow: / 

User-agent: dumbot
Disallow: / 

User-agent: EmailCollector
Disallow: / 

User-agent: EmailSiphon
Disallow: / 

User-agent: EmailWolf
Disallow: / 

User-agent: Enterprise_Search
Disallow: / 

User-agent: Enterprise_Search/1.0
Disallow: / 

User-agent: EroCrawler
Disallow: / 

User-agent: es
Disallow: / 

User-agent: ExtractorPro
Disallow: / 

User-agent: FairAd Client
Disallow: / 

User-agent: Flaming AttackBot
Disallow: / 

User-agent: Foobot
Disallow: / 

User-agent: FreeFind
Disallow: / 

User-agent: Gaisbot
Disallow: / 

User-agent: GetRight/4.2
Disallow: / 

User-agent: grub
Disallow: / 

User-agent: grub-client
Disallow: / 

User-agent: Harvest/1.5
Disallow: / 

User-agent: Hatena Antenna
Disallow: / 

User-agent: hloader
Disallow: / 

User-agent: http://www.SearchEngineWorld.com bot
Disallow: / 

User-agent: http://www.WebmasterWorld.com bot
Disallow: / 

User-agent: httplib
Disallow: / 

User-agent: humanlinks
Disallow: / 

User-agent: InfoNaviRobot
Disallow: / 

User-agent: Iron33/1.0.2
Disallow: / 

User-agent: JennyBot
Disallow: / 

User-agent: Jetbot
Disallow: / 

User-agent: Jetbot/1.0
Disallow: / 

User-agent: Kenjin Spider
Disallow: / 

User-agent: Keyword Density/0.9
Disallow: / 

User-agent: larbin
Disallow: / 

User-agent: LexiBot
Disallow: / 

User-agent: libWeb/clsHTTP
Disallow: / 

User-agent: LinkextractorPro
Disallow: / 

User-agent: LinkScan/8.1a Unix
Disallow: / 

User-agent: LinkWalker
Disallow: / 

User-agent: LNSpiderguy
Disallow: / 

User-agent: lwp-trivial
Disallow: / 

User-agent: lwp-trivial/1.34
Disallow: / 

User-agent: Mata Hari
Disallow: / 

User-agent: Microsoft URL Control
Disallow: / 

User-agent: Microsoft URL Control - 5.01.4511
Disallow: / 

User-agent: Microsoft URL Control - 6.00.8169
Disallow: / 

User-agent: MIIxpc
Disallow: / 

User-agent: MIIxpc/4.2
Disallow: / 

User-agent: Mister PiX
Disallow: / 

User-Agent: MJ12bot
Disallow:   /

User-agent: moget
Disallow: / 

User-agent: moget/2.1
Disallow: / 

User-agent: Mozilla
Disallow: / 

User-agent: mozilla/3
Disallow: / 

User-agent: mozilla/4
Disallow: / 

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: / 

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows 2000)
Disallow: / 

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows 95)
Disallow: / 

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows 98)
Disallow: / 

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows ME)
Disallow: / 

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows NT)
Disallow: / 

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows XP)
Disallow: / 

User-agent: MSIECrawler
Disallow: / 

User-Agent: MSNbot
Crawl-Delay: 20

User-agent: naver
Disallow: / 

User-agent: NetAnts
Disallow: / 

User-agent: NetMechanic
Disallow: / 

User-agent: nicebot
Disallow: / 

User-agent: NICErsPRO
Disallow: / 

User-agent: NPBot
Disallow: / 

User-agent: Nutch
Disallow: / 

User-agent: Offline Explorer
Disallow: / 

User-agent: OmniExplorer_Bot
Disallow: / 

User-agent: Openbot
Disallow: / 

User-agent: Openfind
Disallow: / 

User-agent: Openfind data gathere
Disallow: / 

User-agent: Oracle Ultra Search
Disallow: / 

User-agent: PerMan
Disallow: / 

User-agent: ProPowerBot/2.14
Disallow: / 

User-agent: ProWebWalker
Disallow: / 

User-agent: psbot
Disallow: / 

User-agent: Python-urllib
Disallow: / 

User-agent: QueryN Metasearch
Disallow: / 

User-agent: Radiation Retriever 1.1
Disallow: / 

User-agent: RepoMonkey
Disallow: / 

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: / 

User-agent: RMA
Disallow: / 

User-agent: scooter
Disallow: / 

User-agent: searchpreview
Disallow: / 

User-agent: SiteSnagger
Disallow: / 

User-agent: sootle
Disallow: / 

User-agent: SpankBot
Disallow: / 

User-agent: spanner
Disallow: / 

User-agent: Stanford
Disallow: / 

User-agent: Stanford Comp Sci
Disallow: / 

User-agent: suzuran
Disallow: / 

User-agent: Szukacz/1.4
Disallow: / 

User Agent: Yahoo! Slurp
Disallow: /

User-agent: Teleport
Disallow: / 

User-agent: TeleportPro
Disallow: / 

User-agent: Telesoft
Disallow: / 

User-agent: The Intraformant
Disallow: / 

User-agent: TheNomad
Disallow: / 

User-agent: TightTwatBot
Disallow: / 

User-agent: Titan
Disallow: / 

User-agent: toCrawl/UrlDispatcher
Disallow: / 

User-agent: True_Robot
Disallow: / 

User-agent: True_Robot/1.0
Disallow: / 

User-agent: turingos
Disallow: / 

User-agent: URL Control
Disallow: / 

User-agent: URL_Spider_Pro
Disallow: / 

User-agent: URLy Warning
Disallow: / 

User-agent: VCI
Disallow: / 

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: / 

User-agent: Web Image Collector
Disallow: / 

User-agent: WebAuto
Disallow: / 

User-agent: WebBandit
Disallow: / 

User-agent: WebBandit/3.50
Disallow: / 

User-agent: WebCopier
Disallow: / 

User-agent: WebEnhancer
Disallow: / 

User-agent: WebmasterWorld Extractor
Disallow: / 

User-agent: WebmasterWorldForumBot
Disallow: / 

User-agent: WebSauger
Disallow: / 

User-agent: Website Quester
Disallow: / 

User-agent: Webster Pro
Disallow: / 

User-agent: WebStripper
Disallow: / 

User-agent: WebVac
Disallow: / 

User-agent: WebZip
Disallow: / 

User-agent: WebZip/4.0
Disallow: / 

User-agent: Wget
Disallow: / 

User-agent: Wget/1.5.3
Disallow: / 

User-agent: Wget/1.6
Disallow: / 

User-agent: WWW-Collector-E
Disallow: / 

User-agent: Xenu's
Disallow: / 

User-agent: Xenu's Link Sleuth 1.1c
Disallow: / 

User-agent: Zeus
Disallow: / 

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: / 

User-agent: Zeus Link Scout
Disallow: / 

User-agent: StackRambler
Allow: /
Crawl-delay: 7

User-agent: Yandex/1.01.001
Disallow: /catalg.htm
Allow: /
Crawl-delay: 10
Sitemap: http://ags.net/sitemap.xml

User-agent: Yandex
Disallow: /catalg.htm
Allow: /
Crawl-delay: 10
Sitemap: http://ags.net/sitemap.xml
Host: ags.net
С миру по нитке... вообщем собрал такой robots.txt после прочтения многих форумов/статей как уменшить вероятнось агс и нагрузку поисковтками (актуально для простых shared hosting). Проверено на деле более 2 лет, кстати сайт в сапе и там не было запретов на статистику, коменты и т.д. (сегодня добавил)
 
С миру по нитке... вообщем собрал такой robots.txt после прочтения многих форумов/статей как уменшить вероятнось агс и нагрузку поисковтками (актуально для простых shared hosting). Проверено на деле более 2 лет, кстати сайт в сапе и там не было запретов на статистику, коменты и т.д. (сегодня добавил)
Достаточно интересно , расскажите по подробнее
зачем так много User-agent не проще установить одни правила для всех ?
С остальной вроде все понятно, хотя как это снизит вероятность агс даже не представляю
 
я бы ботов помимо Гугла и Яндекса в роботсе вообще не указывал. Прописывать их в файле и давать дополнительные настройки - геммор, и не всегда осмысленный. Не факт, что эти роботы будут следовать вашим правилам. Да и траффик с них - один уник в два месяца.
ИМХО, в роботсе указывать настройки только для ЯНдекса и Гугла. Остальное - бессмысленно.
 
Идеальный роботс заведомо идет в сборке начиная с 9.2
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху