<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    Robots協議-簡介

    作者:Promise.(承諾) 瀏覽:61 發布時間:2017-08-27
    分享 評論 0

        Robots協議(也稱為爬蟲協議、機器人協議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。


        robots.txt文件是一個文本文件,使用任何一個常見的文本編輯器,比如Windows系統自帶的Notepad,就可以創建和編輯它。robots.txt是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。


        當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。百度官方建議,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。


        如果其他網站鏈接了您robots.txt文件中設置的禁止收錄的網頁,那么這些網頁仍然可能會出現在百度的搜索結果中,但您的網頁上的內容不會被抓取、建入索引和顯示,百度搜索結果中展示的僅是其他網站對您相關網頁的描述。


        robots.txt必須放置在一個站點的根目錄下,文件名必須全部小寫。


    99视频精品全部在线| 欧亚精品卡一卡二卡三| 青春草国产成人精品久久 | 国产精品久久久久久久久kt| 国产精品视频免费| 日产精品久久久一区二区| 国产精品无码一区二区三级| 久久精品无码一区二区app| 日本精品一区二区三区在线视频一| 日韩一区二区三区精品| 国产精品第44页| 大伊香蕉在线精品不卡视频| 欧美日韩久久久精品A片| 在线精品视频一区二区| 亚洲精品123区在线观看| 精品不卡一区二区| 久久久国产精品四虎| 国产成人精品日本亚洲专一区| 亚欧在线精品免费观看一区| 久久精品国产男包| 69久久夜色精品国产69| 中文字幕精品一区二区2021年 | 国产suv精品一区二区6| 国产精品成人va在线播放| 国内成人精品亚洲日本语音| 国产精品资源一区二区| 国产精品白丝喷水在线观看| 国产精品天堂avav在线| 国产在线观看91精品不卡 | 青青草国产精品久久久久| 九九99精品久久久久久| 亚洲AV午夜福利精品一区二区| 久久亚洲精品无码| 久久亚洲精精品中文字幕| 99精品国产在热久久婷婷| 久久精品国产第一区二区三区| 亚洲国产精品综合久久网各| 国产伦精品一区二区三区女| 亚洲精品无码久久| 日本精品αv中文字幕| 国产三级精品在线观看|