<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    robots.txt怎么寫?【seo優化】

    作者:山里的苦丁 瀏覽:249 發布時間:2018-01-29
    分享 評論 0

      robots文件是用來告訴搜索引擎:這個網站上哪些部分可以被訪問、哪些不可以,robots文件是存放在網站根目錄下的一個純文本文件。當搜索引擎訪問一個網站時,它首先會檢查該網站根目錄下是否存在robots文件。robots文件必須放置在一個網站的根目錄下,而且文件名必須全部小寫。


      我們做的網站肯定希望被收錄,因為網站流量的一部分或者是大部分都是來自搜索,所以對網站來說是很重要的。問題是:我們有的網站內容不希望杯搜索到,那么怎么辦呢?在這種情況下,我們就有必要會用到robots文件,來與搜索引擎溝通。所有的搜索引擎蜘蛛自動在網站根目錄中尋找這個文件,所以你只需創建它并上傳,然后等待蜘蛛來閱讀。


      1、允許所有搜索引擎訪問


      User-agent: *


      Disallow:


      或者


      User-agent: *


      Allow: /


      在這里大家要注意下,可以最直接的建一個空文件 “robots.txt”然后放到網站的根目錄。


      2、禁止所有搜索引擎訪問


      User-agent: *


      Disallow: /


      或者


      User-agent: *


      allow:


      3、禁止所有搜索引擎訪問網站中的幾個部分,在這里我用a、b、c目錄來代替


      User-agent: *


      Disallow: /a/


      Disallow: /b/


      Disallow: /c/


      如果是允許,則是


      Allow: /a/


      Allow: /b/


      Allow: /c/


      4、禁止某個搜索引擎的訪問,我用w來代替


      User-agent: w


      Disallow: /


      或


      User-agent: w


      Disallow: /d/*.htm


      在Disallow:后面加 /d/*.htm的意思是禁止訪問/d/目錄下的所有以”.htm”為后綴的URL,包含子目錄。


      5、只允許某個搜索引擎的訪問,我用e來代替


      User-agent: e


      Disallow:


      在Disallow:后面不加任何東西,意思是僅允許e訪問該網站。


      6、使用”$”限制訪問url


      User-agent: *


      Allow: .htm$


      Disallow: /


      意思是僅允許訪問以”.htm”為后綴的URL


      7、禁止訪問網站中所有的動態頁面


      User-agent: *


      Disallow: /*?*


      8、禁止搜索引擎F抓取網站上所有圖片


      User-agent: F


      Disallow: .jpg$


      Disallow: .jpeg$


      Disallow: .gif$


      Disallow: .png$


      Disallow: .bmp$


      意思是只允許引擎抓取網頁,禁止抓取任何圖片(嚴格來說,是禁止抓取jpg、jpeg、gif、png、bmp格式的圖片。)


      9、只允許搜索引擎E抓取網頁和.gif格式圖片


      User-agent: E


      Allow: .gif$


      Disallow: .jpg$


      Disallow: .jpeg$


      Disallow: .png$


      Disallow: .bmp$


      意思是只允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片


      END


      注意事項


      絕大多數的搜索引擎機器人都遵守robots文件的規則,關于怎么寫robots文件的方法,大致就是這些了。要提醒大家的是:robots.txt文件一定要寫對,如果不太會寫,還是要先了解再寫,以免給網站的收錄帶來麻煩。


    国产精品久久久久久亚洲小说| 99re热免费精品视频观看| 亚洲精品乱码久久久久久不卡| 日韩在线中文字幕制服丝袜| 国模精品视频一区二区三区 | 精品久久洲久久久久护士| 久久福利资源国产精品999| 2019天堂精品视频在线观看| 日韩人妻精品无码一区二区三区| 亚洲精品中文字幕无码蜜桃| 久久精品国产一区二区三区不卡| 亚洲精品国产电影| 狼色精品人妻在线视频免费| 在线观看亚洲AV日韩AV| 亚洲精品日韩中文字幕久久久| 亚洲日韩精品一区二区三区无码 | 成人区精品人妻一区二区不卡| 久久99亚洲综合精品首页| 国产精品亚洲不卡一区二区三区| 亚洲精品无码AV中文字幕电影网站| 人人妻人人做人人爽精品| 乱人伦精品视频在线观看| 国产精品成人无码久久久久久| 国产成人精品大尺度在线观看| HEYZO无码综合国产精品| 国产叼嘿久久精品久久| 国产精品高清免费网站| 国产精品自产拍高潮在线观看| 精品人妻伦一二三区久久| 国产综合免费精品久久久| 国内揄拍国内精品| 国内精品九九久久精品| 99久久国产综合精品女同图片| 亚洲精品自产拍在线观看| 日本人精品video黑人| 亚洲av永久无码精品网站 | 国产精品三级国语在线看| 国产真实伦偷精品| 日韩内射美女人妻一区二区三区| 日韩成人无码一区二区三区| 亚洲精品国产电影|