[На русском] Файл robots.txt, Назначение, синтаксис и прочее...

Тема в разделе "Материалы по SEO", создана пользователем Bigann, 26 апр 2007.

Статус темы:
Закрыта.
  1. Bigann

    Bigann Создатель

    Регистр.:
    5 апр 2007
    Сообщения:
    16
    Симпатии:
    3
    Нашел тут интересную статейку, еслу нужно то дам ссылку на нее:

    Что такое robots.txt и для чего он нужен
    Файл robots.txt размещается в корневой директории сайта и описывает исключения для поисковых ботов. Придерживающийся стандартов бот проверяет сначала url "/robots.txt", если файл существует, то бот анализирует его содержимое на предмет наличия запретов к посещению определённых частей сайта. Имя файла не должно содержать заглавных букв. Записи в файле разделяются одной или несколькими пустыми строками. Комментарии в файле robots.txt начинаются знаком “#” и заканчиваются окончанием строки (строки, содержащие только комментарии игнорируются ботами и не являются разделителями записей).

    User-agent
    Имя бота, к которому применяются правила исключений на сайте. Можно прописать несколько строк с User-agent, в этом случае правила, описанные в данной записи будут применяться указанными ботами. Для описывания правил ботам, для которых отдельная запись не составлена применяют следующий параметр: «*» (в файле robots.txt может быть только одна запись User-agent: *).

    Disallow
    В данном поле прописывается полный или частичный путь к месту на сайте, посещение которого запрещено для бота. В каждой записи должно присутствовать как минимум одно поле Disallow. Пустое поле Disallow подразумевает разрешение боту посещать все директории и файлы сайта. Не допускается использование в данном поле регулярных выражений и символов подстановки.


    Примеры для http://site.ru/
    (Показывает как можно сочетать директивы в файле robots.txt но не несущий смысловой нагрузки)

    Некоторые поисковые системы поддерживают дополнительные поля в файле robots.txt. Яндексом поддерживается директива Host, служащая для назначения основного зеркала:

    Запретить сайт к индексации полностью можно с помощью такого файла robots.txt

    Наиболее актуальные для Рунета, на мой взгляд, боты:
    (думаю, даже расшифровывать не требуется)
    Yandex
    Googlebot
    StackRambler
    Aport

    Более полным списком не вижу смысла загромождать топик, кому интересно - обращайтесь в личку - вышлю.

    Рекомендации по запрету к индексации
    Что не следует указывать в файле robots.txt:
    - папки с административными файлами
    - файлы, о которых посторонним вообще знать не стоит
    Прописывание путей к данным частям сайта может породить нездоровый интерес и попытки совершения зловредных действий, рады которым Вы уж точно не будете. К тому же есть и альтернативные способы запрета посещения и индексации ботами страниц.

    Стоит запретить к индексации:
    - документы "для печати"
    - папки со скриптами
    - папки с картинками (если у Вас не предвидится целевой аудитории с поиска по картинкам)
    - сервисные страницы, такие как, например, страница с формой отправки письма администрации, схема проезда

    Ошибки, допускаемые при составлении robots.txt
    Как не надо делать:
    Имя файла содержит заглавные буквы – Robots.txt или ROBOTS.TXT
    Файл robots.txt размещается не в корневой директории
    Пустая строка после поля User-agent
    Отсутствие директивы Disallow
    Использование в поле Disallow символов подстановки или регулярных выражений, например: "?", "*"
    Больше одной строки "Disallow: *"

    Пример ничего не запрещающего robots.txt
    (основное зеркало site.ru)
     
    Veryleft и olegapro нравится это.
  2. Gena

    Gena Создатель

    Регистр.:
    3 июл 2007
    Сообщения:
    47
    Симпатии:
    3
    Ссылку плиз в студию:)
     
  3. Miter

    Miter Писатель

    Регистр.:
    20 июн 2007
    Сообщения:
    7
    Симпатии:
    0
    http://robotstxt.org.ru/

    вот сайтег посвященый сабжу
     
  4. nomer1

    nomer1 Постоялец

    Регистр.:
    6 дек 2006
    Сообщения:
    61
    Симпатии:
    20
    Не доверяю я роботсу, джавой ботов фильтрую.
     
  5. nomer1

    nomer1 Постоялец

    Регистр.:
    6 дек 2006
    Сообщения:
    61
    Симпатии:
    20
    pinox
    В смысле о других методах? На мой взгляд, есть 2 метода. Сомнительный роботс и клоакинг для ботов.
     
  6. Ligos

    Ligos Прохожие

    Ну еще через meta-тег можно запрещать индексацию, только вот вряд ли все поисковики это поддерживают.
     
  7. Whistle

    Whistle Создатель

    Регистр.:
    17 фев 2007
    Сообщения:
    13
    Симпатии:
    0
    все вряд ли, но основные поддерживают...:)
     
  8. chupa

    chupa Прохожие

    забыли сказать про функцию Sitemap

    синтаксис "Sitemap: <полная ссылка>"
     
  9. AchiLLeSS

    AchiLLeSS

    Регистр.:
    13 дек 2006
    Сообщения:
    841
    Симпатии:
    415
    robots.txt для запрета западных "ненужных" ботов (bad bots)

    robots.txt для запрета западных "ненужных" ботов

    bad bots



    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /images/

    User-agent: gigabot
    Crawl-delay: 120

    User-agent: googlebot
    Crawl-delay: 120

    User-agent: msnbot
    Crawl-delay: 120

    User-agent: teoma
    Crawl-delay: 120

    User-agent: slurp
    Crawl-delay: 120

    User-agent: aipbot
    Disallow: /

    User-agent: ia_archiver
    Disallow: /

    User-agent: Alexibot
    Disallow: /

    User-agent: Aqua_Products
    Disallow: /

    User-agent: asterias
    Disallow: /

    User-agent: b2w/0.1
    Disallow: /

    User-agent: BackDoorBot/1.0
    Disallow: /

    User-agent: becomebot
    Disallow: /

    User-agent: BlowFish/1.0
    Disallow: /

    User-agent: Bookmark search tool
    Disallow: /

    User-agent: BotALot
    Disallow: /

    User-agent: BotRightHere
    Disallow: /

    User-agent: BuiltBotTough
    Disallow: /

    User-agent: Bullseye/1.0
    Disallow: /

    User-agent: BunnySlippers
    Disallow: /

    User-agent: CheeseBot
    Disallow: /

    User-agent: CherryPicker
    Disallow: /

    User-agent: CherryPickerElite/1.0
    Disallow: /

    User-agent: CherryPickerSE/1.0
    Disallow: /

    User-agent: Copernic
    Disallow: /

    User-agent: CopyRightCheck
    Disallow: /

    User-agent: cosmos
    Disallow: /

    User-agent: Crescent
    Disallow: /

    User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
    Disallow: /

    User-agent: DittoSpyder
    Disallow: /

    User-agent: EmailCollector
    Disallow: /

    User-agent: EmailSiphon
    Disallow: /

    User-agent: EmailWolf
    Disallow: /

    User-agent: EroCrawler
    Disallow: /

    User-agent: ExtractorPro
    Disallow: /

    User-agent: FairAd Client
    Disallow: /

    User-agent: Fasterfox
    Disallow: /

    User-agent: Flaming AttackBot
    Disallow: /

    User-agent: Foobot
    Disallow: /

    User-agent: Gaisbot
    Disallow: /

    User-agent: GetRight/4.2
    Disallow: /

    User-agent: Harvest/1.5
    Disallow: /

    User-agent: hloader
    Disallow: /

    User-agent: httplib
    Disallow: /

    User-agent: HTTrack 3.0
    Disallow: /

    User-agent: humanlinks
    Disallow: /

    User-agent: IconSurf
    Disallow: /
    Disallow: /favicon.ico

    User-agent: InfoNaviRobot
    Disallow: /

    User-agent: Iron33/1.0.2
    Disallow: /

    User-agent: JennyBot
    Disallow: /

    User-agent: Kenjin Spider
    Disallow: /

    User-agent: Keyword Density/0.9
    Disallow: /

    User-agent: larbin
    Disallow: /

    User-agent: LexiBot
    Disallow: /

    User-agent: libWeb/clsHTTP
    Disallow: /

    User-agent: LinkextractorPro
    Disallow: /

    User-agent: LinkScan/8.1a Unix
    Disallow: /

    User-agent: LinkWalker
    Disallow: /

    User-agent: LNSpiderguy
    Disallow: /

    User-agent: lwp-trivial
    Disallow: /

    User-agent: lwp-trivial/1.34
    Disallow: /

    User-agent: Mata Hari
    Disallow: /

    User-agent: Microsoft URL Control
    Disallow: /

    User-agent: Microsoft URL Control - 5.01.4511
    Disallow: /

    User-agent: Microsoft URL Control - 6.00.8169
    Disallow: /

    User-agent: MIIxpc
    Disallow: /

    User-agent: MIIxpc/4.2
    Disallow: /

    User-agent: Mister PiX
    Disallow: /

    User-agent: moget
    Disallow: /

    User-agent: moget/2.1
    Disallow: /

    User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
    Disallow: /

    User-agent: MSIECrawler
    Disallow: /

    User-agent: NetAnts
    Disallow: /

    User-agent: NICErsPRO
    Disallow: /

    User-agent: Offline Explorer
    Disallow: /

    User-agent: Openbot
    Disallow: /

    User-agent: Openfind
    Disallow: /

    User-agent: Openfind data gatherer
    Disallow: /

    User-agent: Oracle Ultra Search
    Disallow: /

    User-agent: PerMan
    Disallow: /

    User-agent: ProPowerBot/2.14
    Disallow: /

    User-agent: ProWebWalker
    Disallow: /

    User-agent: psbot
    Disallow: /

    User-agent: Python-urllib
    Disallow: /

    User-agent: QueryN Metasearch
    Disallow: /

    User-agent: Radiation Retriever 1.1
    Disallow: /

    User-agent: RepoMonkey
    Disallow: /

    User-agent: RepoMonkey Bait & Tackle/v1.01
    Disallow: /

    User-agent: RMA
    Disallow: /

    User-agent: searchpreview
    Disallow: /

    User-agent: SiteSnagger
    Disallow: /

    User-agent: SpankBot
    Disallow: /

    User-agent: spanner
    Disallow: /

    User-agent: SurveyBot
    Disallow: /

    User-agent: suzuran
    Disallow: /

    User-agent: Szukacz/1.4
    Disallow: /

    User-agent: Teleport
    Disallow: /

    User-agent: TeleportPro
    Disallow: /

    User-agent: Telesoft
    Disallow: /

    User-agent: The Intraformant
    Disallow: /

    User-agent: TheNomad
    Disallow: /

    User-agent: TightTwatBot
    Disallow: /

    User-agent: toCrawl/UrlDispatcher
    Disallow: /

    User-agent: True_Robot
    Disallow: /

    User-agent: True_Robot/1.0
    Disallow: /

    User-agent: turingos
    Disallow: /

    User-agent: TurnitinBot
    Disallow: /

    User-agent: TurnitinBot/1.5
    Disallow: /

    User-agent: URL Control
    Disallow: /

    User-agent: URL_Spider_Pro
    Disallow: /

    User-agent: URLy Warning
    Disallow: /

    User-agent: VCI
    Disallow: /

    User-agent: VCI WebViewer VCI WebViewer Win32
    Disallow: /

    User-agent: Web Image Collector
    Disallow: /

    User-agent: WebAuto
    Disallow: /

    User-agent: WebBandit
    Disallow: /

    User-agent: WebBandit/3.50
    Disallow: /

    User-agent: WebCapture 2.0
    Disallow: /

    User-agent: WebCopier
    Disallow: /

    User-agent: WebCopier v.2.2
    Disallow: /

    User-agent: WebCopier v3.2a
    Disallow: /

    User-agent: WebEnhancer
    Disallow: /

    User-agent: WebSauger
    Disallow: /

    User-agent: Website Quester
    Disallow: /

    User-agent: Webster Pro
    Disallow: /

    User-agent: WebStripper
    Disallow: /

    User-agent: WebZip
    Disallow: /

    User-agent: WebZip
    Disallow: /

    User-agent: WebZip/4.0
    Disallow: /

    User-agent: WebZIP/4.21
    Disallow: /

    User-agent: WebZIP/5.0
    Disallow: /

    User-agent: Wget
    Disallow: /

    User-agent: wget
    Disallow: /

    User-agent: Wget/1.5.3
    Disallow: /

    User-agent: Wget/1.6
    Disallow: /

    User-agent: WWW-Collector-E
    Disallow: /

    User-agent: Xenu's
    Disallow: /

    User-agent: Xenu's Link Sleuth 1.1c
    Disallow: /

    User-agent: Zeus
    Disallow: /

    User-agent: Zeus 32297 Webster Pro V2.9 Win32
    Disallow: /

    User-agent: Zeus Link Scout
    Disallow: /



    взято с


    http://forum.searchengines.ru/showthread.php?t=164772
    оригинал:
    http://www.firewallforums.com/forums/showthread.php?p=8
     
  10. vitea7

    vitea7 Создатель

    Регистр.:
    24 апр 2007
    Сообщения:
    15
    Симпатии:
    2
    А какова необходимости в запрете данных ботов?
     
Статус темы:
Закрыта.