robots協議
作者:麋鹿
瀏覽:934次
發布時間:2017-10-31




Robots協議(也稱為爬蟲協議、機器人協議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取(具體可查看馬海祥博客《robots協議文件的寫法及語法屬性解釋》的相關介紹)。
是搜索引擎的一部分來定位和索引互聯網上的每個可能回答搜索請求的網頁,通常只在討論 robots的HTML標簽或者robots.txt文件的時候使用。