<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    網站robots文件的作用介紹及寫法大全

    作者:飛鳥海搏 瀏覽:139 發布時間:2017-12-25
    分享 評論 0

     一個完整的網站,301重定向、404頁面自定義和robots.txt文件都是必有的,沒有為什么,301是為了集權;404是在網站出現死鏈的時候引導蜘蛛以及增加用戶體驗;那robots.txt文件是做什么的呢?它有什么作用呢?


      一、robots文件是什么?


      robots.txt文件是存放在網站根目錄下面的一個TXT文本文檔.它是網站和蜘蛛之間的一個協議.


      二、robots文件有什么作用?


      如果你網站根目錄有robots.txt這樣一個文件,那蜘蛛在爬行你網站的時候就會首先訪問這個文件(robots文件一般都要存放在根目錄,蜘蛛第一個訪問的文件,因此這個文件是很重要的).robots文件的作用是告訴搜索引擎蜘蛛,網站的哪些文件夾可以抓取,哪些文件夾不能抓取,從而確保我們網站的隱私內容不會被收錄.


      三、robots文件怎么寫?


      1.定義搜索引擎


      用User-agent:來定義搜索引擎,其中*表示所有


      百度蜘蛛名字:Baiduspider,谷歌蜘蛛名字:Googlebot.


      User-agent:*表示定義所有蜘蛛


      User-agent: Baiduspider表示自定義百度蜘蛛,


      User-agent: Googlebot表示自定義谷歌蜘蛛


      大家可以參考百度或者淘寶的robots.txt,他么就是這樣寫的,而我們小站只需要自定義所有搜索引擎蜘蛛即可.


      2.禁止訪問和允許訪問


      User-agent: *


      Disallow: /


      表示禁止所有搜索引擎訪問;


      User-agent: *


      Allow: /


      表示允許所有搜索引擎訪問.


      PS:在:后面/前面有一個英文狀態下的空格,空格必須有,必須是英文狀態下的


      3.禁止搜索引擎訪問網站中的某些目錄


      假設a是我網站根目錄的一個文件夾,寫法分別如下:


      User-agent: *


      Disallow: /a


      禁止搜索引擎訪問a文件夾及a文件夾下面的所有文件


    无码精品久久一区二区三区| 野花国产精品入口| 人人妻久久人人澡人人爽人人精品| 日韩制服国产精品一区| 视频久re精品在线观看| 国产精品嫩草影院人体模特| 精品无码av一区二区三区| 亚洲AV日韩精品久久久久久久 | 精品国产日韩一区三区| 国产精品无码久久久久久久久久| 亚洲精品无码久久久久秋霞| 国产精品久久久久久| 91精品国产一区二区三区左线| 日产精品久久久久久久性色| 无码精品一区二区三区在线| 亚洲AV无码国产精品麻豆天美| 精品久久久久久亚洲| 国产亚洲精品a在线无码| 国内精品99亚洲免费高清| 久久激情亚洲精品无码?V| 国产偷国产偷高清精品| 国产精品国产三级国产a| CAOPORM国产精品视频免费 | 亚洲国产精品成人久久久| 亚洲精品网站在线观看你懂的| 久久狠狠高潮亚洲精品| 97视频精品全国在线观看| 久久精品国产亚洲AV麻豆网站 | 精品人妻av区乱码| 亚洲精品白色在线发布| 亚洲欧洲国产精品久久| 精品一区高潮喷吹在线播放| 亚洲av午夜精品无码专区| 欧乱色国产精品兔费视频| 2021久久精品国产99国产精品| 国产精品久久婷婷六月丁香| 午夜精品久久久久久久99蜜桃| 精品国偷自产在线视频99| 国内大量揄拍人妻精品視頻| 国产精品亚洲专区无码不卡| 亚洲免费日韩无码系列 |