<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    搜索引擎真的遵守robots.txt協議嗎?

    作者:青檸i 瀏覽:175 發布時間:2018-05-22
    分享 評論 0

        我們都知道文件是搜索引擎遵守的一個抓取協議,但是是不是真的有效果呢?


        搜索引擎真的會遵循這個協議嗎?


        讓我們首先來看看


        下面這段 [這是我南昌seo站點的設置:允許GG 百度、ALEXA 抓取,屏蔽了其他一切引擎禁止!]


        User-agent:Googlebot


        Disallow:


        User-agent:baiduspider


        Disallow:


        User-agent:ia_archiver


        Disallow:


        User-agent:*


        Disallow:/


        從理論上來說 這樣的設置就屏蔽了其他一切引擎,但實際上這種方法并不能完全屏蔽SOSO YAHOO MSN之類的爬蟲,在YAHOO上輸入site:還是可以看到內容以及索引的! 遵守robots協議與否當然是由他們自己說了算的!所以要想完全屏蔽搜索引擎的爬蟲,需要在.htaccess中加入限制語句才行,這里我們介紹2種最簡單的方法: 1:


        RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^MSNBOT [NC] RewriteRule .* - [F]


        2:


        SetEnvIfNoCase User-Agent "^MSNBOT" bad_bot


        <Limit GET POST> Order Allow,Deny Allow from all Deny from env=bad_bot </Limit>


        注:MSNBOT 為MSN蜘蛛機器人代碼 ,如果想要真正屏蔽某個搜索引擎 把其中的紅色部分[MSNBOT] 換成你想要屏蔽的蜘蛛機器人代碼即可! 請不要隨意添寫 否則造成損失與本人無關! seo小林發布,轉載請注明出處:江西南昌seo


    精品少妇一区二区三区视频| 天天爽夜夜爽8888视频精品| 色综合99久久久无码国产精品| 亚洲国产另类久久久精品| 亚洲精品岛国片在线观看| 亚洲日韩小电影在线观看| 亚洲精品91在线| 国产精品激情综合久久| 成人精品视频一区二区| 91在线手机精品免费观看| 日韩国产免费一区二区三区| 国产成人高清精品免费鸭子| 亚洲国产精品无码久久久秋霞1| 99热这里只有精品国产动漫| 国产精品久久久久jk制服| 精品国产呦系列在线观看免费| 国产精品96久久久久久久 | 精品久久久久香蕉网| 99热精品久久只有精品30| 久久国产三级精品| 久热综合在线亚洲精品| 国产精品免费一区二区三区四区| 99精品在线观看| 99re这里只有精品6| AV天堂午夜精品一区| 国产三级精品三级在线观看| 国产高清在线精品一本大道国产| 青春草无码精品视频在线观| 日韩夜夜高潮夜夜爽无码| 欧美日韩久久久精品A片| 亚洲日韩VA无码中文字幕| 国产日韩久久免费影院| 亚洲日韩精品A∨片无码| 亚洲av日韩av激情亚洲| 亚洲精品日韩专区silk| 国产成人精品午夜视频'| 日韩精品国产自在久久现线拍| 日韩精品久久久久久免费| 日批日韩在线观看| 亚洲精品第一国产综合境外资源| 国产成人精品在线观看|