<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    搜索引擎真的遵守robots.txt協(xié)議嗎?

    作者:青檸i 瀏覽:175 發(fā)布時(shí)間:2018-05-22
    分享 評(píng)論 0

        我們都知道文件是搜索引擎遵守的一個(gè)抓取協(xié)議,但是是不是真的有效果呢?


        搜索引擎真的會(huì)遵循這個(gè)協(xié)議嗎?


        讓我們首先來看看


        下面這段 [這是我南昌seo站點(diǎn)的設(shè)置:允許GG 百度、ALEXA 抓取,屏蔽了其他一切引擎禁止!]


        User-agent:Googlebot


        Disallow:


        User-agent:baiduspider


        Disallow:


        User-agent:ia_archiver


        Disallow:


        User-agent:*


        Disallow:/


        從理論上來說 這樣的設(shè)置就屏蔽了其他一切引擎,但實(shí)際上這種方法并不能完全屏蔽SOSO YAHOO MSN之類的爬蟲,在YAHOO上輸入site:還是可以看到內(nèi)容以及索引的! 遵守robots協(xié)議與否當(dāng)然是由他們自己說了算的!所以要想完全屏蔽搜索引擎的爬蟲,需要在.htaccess中加入限制語句才行,這里我們介紹2種最簡單的方法: 1:


        RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^MSNBOT [NC] RewriteRule .* - [F]


        2:


        SetEnvIfNoCase User-Agent "^MSNBOT" bad_bot


        <Limit GET POST> Order Allow,Deny Allow from all Deny from env=bad_bot </Limit>


        注:MSNBOT 為MSN蜘蛛機(jī)器人代碼 ,如果想要真正屏蔽某個(gè)搜索引擎 把其中的紅色部分[MSNBOT] 換成你想要屏蔽的蜘蛛機(jī)器人代碼即可! 請(qǐng)不要隨意添寫 否則造成損失與本人無關(guān)! seo小林發(fā)布,轉(zhuǎn)載請(qǐng)注明出處:江西南昌seo


    亚洲欧美日韩中文无线码 | 国产精品亚洲专区在线观看| 国内揄拍高清国内精品对白| 亚洲精品和日本精品| 中文字幕日韩专区| 成人精品视频一区二区三区尤物| 国产精品九九九久久九九| 99精品在线免费观看| 国产精品人人做人人爽| 精品香蕉在线观看免费| 久久精品亚洲一区二区三区浴池| 亚洲精品无码Av人在线观看国产| 精品乱子伦一区二区三区| 亚洲国产成人精品91久久久| 99热在线日韩精品免费| 国产午夜精品福利| 国产精品无码素人福利免费| 精品欧洲videos| 久久精品国产秦先生| 无码中文字幕日韩专区| 国产精品久久久久影院| 在线精品91青草国产在线观看| 久久精品成人国产午夜| 伊人久久综合精品无码AV专区| 99久久这里只有精品| 久热这里只有精品99国产6| 亚洲国产精品一区二区第四页| 日本精品视频在线观看| 日本一区二区三区精品国产| 精品福利一区3d动漫| 全国精品一区二区在线观看| 牛牛在线精品观看免费正| 四虎影视永久在线精品| 亚洲?V乱码久久精品蜜桃| aaa级精品久久久国产片| 亚洲国产精品13p| 日韩a级一片在线观看| 国产精品视频你懂的| 久久综合国产乱子伦精品免费 | 精品无码国产自产在线观看水浒传| 蜜芽亚洲av无码精品色午夜|