<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    Robots.txt文件

    作者:淺色記憶 瀏覽:133 發布時間:2017-11-02
    分享 評論 0

    Robots.txt對于任何一個從事SEO研究工作的人都是至關重要的,因為透過 Robots.txt 我們可以直接與搜索引擎蜘蛛進行對話,告訴他們哪些可以抓取,哪些不可以抓取。
      一、為什么設置Robots.txt?
      在進行SEO操作的時候,我們需要告訴搜索引擎哪些頁面重要哪些頁面不重要,重要的頁面讓蜘蛛進行抓取,不重要的頁面進行屏蔽可以減少網站服務器的負擔。
      二、一些常見的問題和知識點
      1、蜘蛛在發現一個網站的時候,第一步是抓取網站的Robots.txt文件(當然官方上是這么說的,有時候也會出現不遵守的情況);
      2、建議所有的網站都要設置Robots.txt文件,如果你認為網站上所有內容都是重要的,你可以建立一個空的robots.txt文件;
      三、在robots.txt文件中設置網站地圖
      你可以在robots.txt中添加網站的地圖,告訴蜘蛛網站地圖所在的地址。
      四、Robots.txt的順序
      在蜘蛛協議中,Disallow 與 Allow是有順序的,這是一個非常重要的問題,如果設置錯誤可能會導致抓取錯誤。
      引擎蜘蛛程序會根據第一個匹配成功的Allow或Disallow行確定是否訪問某個URL,一個例子可以讓你更清楚明白:
      1.User-agent: * 2.Allow: /seojc/bbs 3.Disallow: /seojc/  這個情況下,蜘蛛/seojc/bbs目錄可以正常抓取,但/seojc/目錄的文件無法抓取。通過這種方式可以允許蜘蛛訪問特定目錄中的部分url。
      我們對調下位置觀察一下。
      1.User-agent: * 2.Disallow: /根目錄下的文件夾/ 3.Allow: /seojc/bbs  /seojc/目錄出現在第一行,禁止抓取目錄下的所有文件,那么第二行的Allow就無效,因為第一行中已經禁止抓取seojc目錄下的所有文件,而 bbs目錄正好位于seowhy目錄下。因此匹配不成功。
      五、Robots.txt路徑問題
      在蜘蛛協議中,Allow和Disallow后面可以跟兩種路徑形式,即絕對鏈接、相對鏈接。絕對鏈接就是完整的URL形式,而相對鏈接只針對根目錄。這是重點記住。
      六、斜杠問題
      Disallow: /seojc表示禁止抓取seoic這個目錄下的所有文件,如seojc/1.html、seojc/rmjc.php;
      Disallow: /seojc/ 表示禁止抓取seojc這個目錄,而seojc.1.html、seojc/rmjc.php是可以抓取的。

    精品日韩一区二区三区视频| 亚洲精品在线网站| 日韩夜夜高潮夜夜爽无码| 欧洲国产成人精品91铁牛tv| 亚洲精品又粗又大又爽A片| 亚洲午夜久久久精品电影院| 亚洲2022国产成人精品无码区| 99热成人精品热久久669| 国产精品丝袜久久久久久不卡| 日韩精品一区二区三区毛片| 国产精品亚洲精品日韩已满| 国产亚洲美女精品久久| 国产精品久久精品视| 国产自产拍精品视频免费看| 成人无号精品一区二区三区| 亚洲国产成人精品无码区二本| 无码国产精品一区二区免费 | 少妇AV射精精品蜜桃专区| 在线精品亚洲一区二区| 99视频精品全部在线观看| 亚洲AV无码国产精品色| 精品无码一区二区三区在线| 亚洲va精品中文字幕| 精品无码久久久久国产动漫3d| 亚洲麻豆精品果冻传媒| 91精品国产高清久久久久久国产嫩草 | 免费精品人在线二线三线区别| 2020国产欧洲精品视频| 亚洲精品伊人久久久久| 亚洲国产成人精品激情| 最新在线精品国自产拍网站| 日韩精品成人a在线观看| 色婷婷99综合久久久精品| 在线精品免费视频无码的| 97色精品视频在线观看| 精品久久中文字幕有码| 国产成人亚洲精品蜜芽影院| heyzo亚洲精品日韩| 日韩精品乱码AV一区二区| 日韩视频一区二区在线观看| 日韩精品中文字幕第2页|