<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    如何寫robots.txt文件才能集中網站權重

    作者:逐夢網絡 瀏覽:172 發布時間:2017-04-27
    分享 評論 0

    一:什么是robots協議

    robots協議(也稱為爬蟲協議、爬蟲規則、機器人協議等)也就是robots.txt,網站通過robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不希望被抓取。

    ? Robots協議是網站國際互聯網界通行的道德規范,其目的是保護網站數據和敏感信息、確保用戶個人信息和隱私不被侵犯。

    ? 因其不是命令,是一種單方面協議,故需要搜索引擎自覺遵守。

    二:robots.txt放置位置

    robots.txt文件應該放置在網站根目錄下。

    例如,當spider訪問一個網站(比如 http://www.taobao.com)時,首先會檢查該網站中是否存在http://www.taobao.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

    三:robots.txt文件的寫法

    操作步驟:

    1.新建一個文本文檔,命名為robots.txt

    2.開始寫robots

    User-agent: *   (*針對所有搜索引擎)

    Disallow: /     (禁止爬取所有頁面,/代表目錄)

    Disallow: /admin/ (禁止抓取admin目錄)

    Disallow: /admin (禁止抓取包含admin的路徑)

    Allow: /admin/s3.html    (允許抓取admin目錄下s3.html文件)

    一個“/”表示路徑,兩個“/”表示文件夾

    Allow: /admin/php/  (允許抓取admin下面的php文件的所有內容)

    Disallow: /.css$ (禁止抓取所有帶.css的文件)

    sitemap:***

    注意:

    ? 冒號后面有空格,空格后面都有/(都要以/開頭),開頭第一個字母大寫

    ? 因為搜索引擎蜘蛛來抓取網站的時候最先看的就robots文件,我們把網站地圖的地址放到robots協議中有利于搜索引擎蜘蛛的抓取,從而提高網站的收錄。 


    久久精品国产乱子伦| 亚洲欧洲国产精品香蕉网| 国语精品91自产拍在线观看二区| 久久精品国产99国产精品亚洲 | 亚洲Av无码精品色午夜| 国产亚洲精品久久久久秋霞| 国产精品亚洲综合一区| 亚洲精品线路一在线观看| 无码精品人妻一区二区三区免费| 亚洲欧美国产日韩av野草社区| 日韩内射激情视频在线播放免费 | 国产精品午睡沙发系列| 一本一本久久aa综合精品| 中文国产成人精品少久久| 成人区人妻精品一区二区不卡网站| 久久99精品国产99久久6| 国产精品偷窥熟女精品视频| 精品成人av一区二区三区| 国产精品免费看久久久香蕉| 国产精品成人国产乱一区| 亚洲精品无码永久在线观看 | 日韩人妻精品无码一区二区三区| 久久se精品动漫一区二区三区| 久久伊人精品热在75| 四虎国产精品永久在线观看 | 日韩亚洲翔田千里在线| 日韩一级在线视频| 国产成人综合精品一区| 久久国产精品国语对白| 在线观看国产精品日韩av| 亚洲AV永久纯肉无码精品动漫| 久久无码专区国产精品s| 日韩精品久久久肉伦网站| 91成人精品视频| 国产91精品在线| 亚洲国产精品成人综合色在线| 精品国产夜色在线| 日韩精品一二三四区| 日韩人妻一区二区三区免费| 高清在线亚洲精品国产二区| 国产精品成人免费观看|