<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    創建robots.txt注意事項

    作者:數風流人物 瀏覽:263 發布時間:2017-12-12
    分享 評論 0

    一:robots基礎知識


    robots協議(也稱爬蟲協議、機器人協議等),“全稱是網絡爬蟲掃除規范“(Robots Exclusion Protocol),網站經過robots協議告訴搜索引擎哪些頁面能夠抓取,哪些頁面不能夠抓取。


    Robot.txt的效果?


    能夠讓蜘蛛更高效的匍匐網站


    能夠阻撓蜘蛛匍匐動態頁面,從而處理重復錄入的問題


    能夠削減蜘蛛匍匐無效頁面,節約服務器帶寬


    能夠屏蔽搜索引擎屏蔽一些隱私頁面或許臨時頁面


    怎么創立robots.txt文件呢?


    右擊桌面——新建文本文檔——重命名為robots.txt(一切文件有必要小寫)——編寫規矩——用FTP把文件上(放到根目錄下)傳到空間


    創立robots.txt需求留意的知識點:


    1、有必要是txt結束的純文本文件


    2、文件名一切字母有必要是小寫


    3、文件有必要要放在根目錄下


    4、文件內的冒號有必要是英文半角狀態下


    二:robots參數解說


    User-agent


    首要效果:用于描繪搜索引擎蜘蛛的姓名


    舉列:


    1、描繪一切蜘蛛


    User-agent:*


    2、描繪百度蜘蛛


    User-agent:BaiduSpider


    百度:BaiduSpider


    谷歌:Googlebot


    搜狗:Sogou web spider


    好搜:360Spider


    MSN:MSNBot


    有道:YoudaoBot


    宜搜:EasouSpider


    User-agent技巧:


    1、當robots.txt不為空的時分,有必要至少有一條User-adent記載


    2、相同的姓名,只能有一條(例如User-agent:*),可是不同蜘蛛,能夠有多條記載(例如:User-agent:Baiduspider和User-agent:Googlebot)。


    Disallow


    首要效果:用于描繪不答應搜索引擎匍匐和抓取的URL。


    運用技巧:


    1、在robots.txt中至少要有一條Disallow


    2、Disallow記載為空,則表明網站一切頁面都答應被抓取。


    3、運用Disallow,每個目錄有必要獨自分隔聲明


    4、留意Disallow:/abc/(abc目錄底下的目錄不答應抓取,可是目錄底下的html答應抓取)和Disallow:/abc(abc目錄底下的目錄跟html都不答應被抓取)的差異。


    亚洲国产精品ⅴa在线观看| 久久精品丝袜高跟鞋| 日韩一级二级三级| 人妻少妇精品专区性色AV| 亚洲国产精品久久久久秋霞影院 | 精品福利一区二区三区免费视频| 亚洲国产精品一区二区久久hs| 91国在线啪精品一区| 亚洲国产成人精品女人久久久 | 国产精品国产午夜免费福利看| 亚洲av无码成人精品区一本二本| 91精品国产自产在线观看| 99热在线只有精品| 无码人妻精品中文字幕| 国产精品视频一区二区三区四| 亚洲精品国产美女久久久| 国产亚洲精品无码拍拍拍色欲| 国产精品高清在线| 一区二区三区精品视频| 精品人妻一区二区三区四区在线| 中文字幕日韩一区二区不卡| 中文字幕无码日韩专区免费| 日韩精品在线播放| 国产在线精品一区二区| 国产在线国偷精品产拍| 国产伦精品一区二区三区四区| 国产精品综合一区二区三区| 国产麻豆剧传媒精品国产AV | 日韩精品福利片午夜免费观着| 日韩经典精品无码一区| 国产在线国偷精品产拍| 日韩国产一区二区| 日韩一区二区在线播放| 久久综合日韩亚洲精品色| 亚欧日韩毛片在线看免费网站| 日韩精品无码一本二本三本| 日韩精品一区二区三区老鸭窝| 日韩av无码一区二区三区| 日韩精品一区二区三区国语自制 | 热99精品只有里视频最新| 老司机午夜精品视频播放|