<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    robots.txt文件到底有什么用呢?

    作者:山里的苦丁 瀏覽:243 發布時間:2017-11-01
    分享 評論 0

      前幾天有朋友在網站通過聊天窗口問苦丁,有什么什么辦法阻止搜索引擎的收錄,因為自己網站上面有的東西不想被搜索引擎收錄。其實是可以實現的,在這里就有必要好好介紹一下robots.txt文件,因為通過這個robots.txt全完可以實現搜索引擎收錄的問題。


      其實不管是企業網站還是門戶網站,上面都會有些資料是保密而不對外公開的。怎么樣做到不對外公開呢?唯一的保密的措施就是不讓搜索引擎來搜錄這些信息。這 樣就會不在網絡上公司,那么要實現這個網站頁面不收錄,就體了robots.txt的作用啦!robots.txt是一個簡單的記事本文件,這是網站管理 員和搜錄引擎對話的一個通道。在這個文件中網站管理者可以聲明該網站中不想被robots訪問的部分,或者指定搜索引擎只收錄指定的內容。


      當一個搜索機器人(有的叫搜索蜘蛛)訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,那么搜索機器人就沿著鏈接抓取。


      既然我們這里知道了什么是robots.txt,我們該如何來應用呢?


      1、如果我們網站的內容為全部公開,則不需要要設置robots.txt或robots.txt為空就可以啦。


      2、robots.txt這個文件名必需要是小寫而且都要放在網站的根目錄下http://www.xxxxx.com/robots.txt一般要通過這種URL形式能訪問到,才說明我們放的位置是正確的。


      3、robots.txt一般只寫上兩種函數:User-agent和 Disallow。有幾個禁止,就得有幾個Disallow函數,并分行描述。


      4、至少要有一個Disallow函數,如果都允許收錄,則寫: Disallow: ,如果都不允許收錄,則寫:Disallow: /  (注:只是差一個斜桿)。


      寫法說明


      User-agent: *  星號說明允許所有搜索引擎收錄


      Disallow: /search.html   說明 http://www.xxxxx.com/search.html 這個頁面禁止搜索引擎抓取。


      Disallow: /index.php?   說明類似這樣的頁面http://www.www.xxxxx.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。


      常見的用法實例:


      允許所有的robot訪問


      User-agent: *


      Disallow:


      或者也可以建一個空文件 “/robots.txt” file


      禁止所有搜索引擎訪問網站的任何部分


      User-agent: *


      Disallow: /


      禁止所有搜索引擎訪問網站的幾個部分(下例中的01、02、03目錄)


      User-agent: *


      Disallow: /01/


      Disallow: /02/


      Disallow: /03/


      禁止某個搜索引擎的訪問(下例中的BadBot)


      User-agent: BadBot


      Disallow: /


      只允許某個搜索引擎的訪問(下例中的Crawler)


      User-agent: Crawler


      Disallow:


      User-agent: *


      Disallow: /


      另外,我覺得有必要進行拓展說明,對robots meta進行一些介紹:


      Robots META標簽則主要是針對一個個具體的頁面。和其他的META標簽(如使用的語言、頁面的描述、關鍵詞等)一樣,Robots META標簽也是放在頁面的<head></head>中,專門用來告訴搜索引擎ROBOTS如何抓取該頁的內容。


      Robots META標簽的寫法:


      Robots META標簽中沒有大小寫之分,name=”Robots”表示所有的搜索引擎,可以針對某個具體搜索引擎寫為name=”BaiduSpider”。 content部分有四個指令選項:index、noindex、follow、nofollow,指令間以“,”分隔。


      INDEX 指令告訴搜索機器人抓取該頁面;


      FOLLOW 指令表示搜索機器人可以沿著該頁面上的鏈接繼續抓取下去;


      Robots Meta標簽的缺省值是INDEX和FOLLOW,只有inktomi除外,對于它,缺省值是INDEX,NOFOLLOW。


      這樣,一共有四種組合:


      <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>


      <META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>


      <META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>


      <META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>


      其中


      <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以寫成<META NAME=”ROBOTS” CONTENT=”ALL”>;


      <META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以寫成<META NAME=”ROBOTS” CONTENT=”NONE”>


      目前看來,絕大多數的搜索引擎機器人都遵守robots.txt的規則,而對于Robots META標簽,目前支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令“archive”,可以限制GOOGLE是否保留網頁快照。例如:


      <META NAME=”googlebot” CONTENT=”index,follow,noarchive”>


      表示抓取該站點中頁面并沿著頁面中鏈接抓取,但是不在GOOLGE上保留該頁面的網頁快照。


      robots.txt文件對于我們做SEO的朋友來說也是經常要用到的,所以我們還要好好了解他的具體操作方法。苦丁分享


    日韩人妻无码精品专区| 亚洲欧美精品午睡沙发| 国内精品卡1卡2卡区别| 一色屋精品视频任你曰| 日韩精品无码一区二区中文字幕| 精品国产一区二区麻豆| 中文精品一区二区三区四区| 666精品国产精品亚洲| 久久精品.com| 久久国产乱子伦精品免费强 | 久久九九亚洲精品| 久久久久九九精品影院| 国产VA免费精品高清在线| 日韩一级黄色影片| 在线观看国产日韩| 日韩人妻精品一区二区三区视频 | 亚洲av无码国产精品色午夜字幕 | 久久91综合国产91久久精品| 国精品无码A区一区二区| 久久久久久久久久久免费精品| 国产成人精品久久综合| 免费视频成人国产精品网站 | 色婷婷在线精品国自产拍| 久久青草精品一区二区三区| 精品一卡2卡三卡4卡免费视频| 亚洲一区爱区精品无码| 亚洲永久精品ww47| 久久精品国产99国产电影网 | 亚洲精品第一国产综合境外资源 | 亚洲婷婷第一狠人综合精品| 亚洲精品自拍视频| 国产精品福利网站导航| 2020国产精品永久在线| 69国产成人综合久久精品| 久久久精品久久久久影院| 久久精品亚洲AV久久久无码| 精品女同一区二区三区免费站| 国产99re在线观看只有精品| 99re最新这里只有精品| 人妻少妇精品无码专区动漫| 国产Av一区二区精品久久|