提問者:云客網官方問答 | 分類:網站診斷 | 瀏覽25次 | 懸賞分:0積分 2017-03-06 11:05:23
手上有個網站 SEO沒做好反而降權了 想利用來做分析積累點經驗 要怎樣分析呢 哪些是重點最佳答案
我要回答
杰克
站內收錄,站外的收錄。 總結一下:通過基礎數據主要是分析這個網站優化的好不好。 第二步:我們需要分析網站的定位和網站的盈利方式 知道了定位基本上可以確定網站的盈利模式,這個網站主要是通過給高端別墅用戶提供別墅裝修 第三步:我們根據定位來分析網站的關鍵詞選取的是否合理,布局的是否合理,關鍵詞密度是否合理 網站關鍵詞選擇的不合理,關鍵詞的排名不好,找一些競爭對手的網站對比一下。 導航的位置可以適當的添加一些核心關鍵詞、網站有沒有合理布局次導航關鍵詞 次導航的關鍵詞可以適當的拓展下,讓詞跟網站的定位匹配度更高一點 關鍵詞密度不合理 如果你覺得別人網站的關鍵詞選擇的不合理,那么你可以找競爭對手的網站的關鍵詞截圖給它看看。 第四步:分析網站的三大標簽(tdk) 分析分為主頁 內頁來分析,每一個頁面要有不同的三大標簽 第五步:我們需要分析網站的結構 網站有沒有合理使用邏輯結構和物理結構 物理結構指的是網站的網址層級 扁平的樹狀結構 邏輯結構強調的是用戶需要點擊多少次才能到達所到的頁面,我們可以做站點地圖,xml html TXT 這樣的站點地圖一直沒更新,建議要及時更新站點地圖。 總結:結構:要看具體是什么樣的網站,如果是中小型網站一般是三個左右的層級深度,如果是大型站點,一般是5個層級左右深度,或者建議使用子域名來做。 第六步:我們需要分析網站的url優化 首先分析網站有沒有合理使用首選域,所謂的首選域指的是搜索引擎編入到索引的域名,用來收錄做排名的域名,首選域是通過301來實現的。 url中我們還需要分析網址的路徑是否采用的是絕對路徑 第一個是一個完整的地址,可以明確首選域,其次絕對地址,別人復制你的網站的鏈接是不是也可以打開的。 其次是絕對路徑可以避免網站被惡意鏡像。 url中我們還需要分析網址的偽靜態處理,對于動態網址建議做一個偽靜態的處理。 其次在url中分析 死鏈接 需要查看網站中有沒有存在死鏈接 對于存在死鏈接,最好的方式是找到死鏈接對于有用的鏈接,修復過來,沒有用的直接刪掉或者給網站做一個404頁面來引導用戶訪問你的網站。 其次url中我們還需要注意網址中盡量帶上你網站內容名稱的關鍵詞的拼音或者英文字母 第七步、我們還需要分析站內的圖片和視頻文件有沒有合理添加屬性 圖片文件,我們建議添加alt屬性,視頻文件我們建議添加title屬性,其次網站中的圖片不建議超過100kb,視頻文件采用外部調用的方式來加載視頻。 面包屑導航使用 1、 什么叫做面包屑導航 2、 有什么作用 面包屑導航是我們做seo優化常用的一種內部鏈接優化的一種手段,通過這個導航的鏈接可以讓用戶能快速知道用戶所在的位置,能快速返回你的網站的頁面,有效的增加網站的pv的數量 ,其次也是可以減少用戶點擊次數。利于網站的邏輯結構的優化。同時也是可以增加頁面關鍵詞的密度。 3、 面包屑導航如何添加 Tags標簽的調用 這個tag標簽相當頁面的關鍵詞,布局tag標簽作用是可以增加頁面的關鍵詞的密度,其次這個tag標簽可以合理布局好網站的內部鏈接,能很好的引導蜘蛛抓取到你網站更多的內容頁面 一般我們建議可以把這個標簽調用顯示在主頁,有可以調用顯示在內容頁面。 TAG標簽:{dede:tag row='30' sort='new' getall='0'} [field:tag /]{/dede:tag} 就是調用tag標簽的代碼 如果你的網站根目錄下面沒有tags.php這個文件,那么大家注意去下載一個跟你網站模板編碼格式一致的文件上傳到網站的根目錄里面。 如果出來上面的截圖的問題,那么我們需要查看網站的模板文件 如果沒有,方法一樣,在下載一個跟你們網站編碼格式一樣的文件上傳到模板的位置。 這個是默認的模板,里面沒有調用自己網站的樣式文件才會出現這樣的結果 如果你想讓它跟你的網站風格一致,那么需要修改這個模板 其實這個模板頁面只是給蜘蛛抓取用的,一般用戶是看不到這個頁面的 。 站內的robots.txt文件優化 1、 什么叫做robots文件協議 我們說這個robots協議是你的網站跟各大搜索引擎之間溝通的協議方法,我們可以通過這個文件告訴各大搜索引擎的蜘蛛程序,網站哪些頁面可以抓取,哪些頁面不能抓取。 舉個例子 假如網站有一個100頁面,正常情況下網站有100個鏈接,那么是不是100個鏈接都能用來參與排名呢 一個網站不是所有的鏈接所對應的頁面都對排名有價值的,那么對于排名沒有價值的頁面我們就可以使用這個文件給屏蔽掉,從而能提高蜘蛛抓取你網頁的效率。 強調一下,這個文件只是一個協議,并不是一個強制的命令。 總結下:對于排名有價值的頁面值得是網站中有實際內容的頁面。 其次需要注意這個文件存放的地方 記住這個文件必須要放在網站的根目錄里面,這個而文件的名稱全稱是robots.txt 文件名必須要叫robots.txt而且這個文件名必須要小寫。搜索引擎蜘蛛在抓取你的網站的時候首先就會讀取這個文件,如果你的網站有這個文件,那么搜索引擎的蜘蛛則會根據文件上面指定內容來抓取,如果沒有這個文件,那么表面你的網站所有內容都可以抓取。 下面來訪問這個文件看看這個文件長什么樣 現在打開的是織夢自帶的文件是不合理的,達不到我們優化的需求,所以我們接下來就來優化這個文件。 robots文件的書寫規則 User-agent: 蜘蛛名稱 *是一個通配符,代表的意思是指的是所有的搜索引擎蜘蛛的名稱。 對于普通的企業站點在書寫這個文件的時候我們一般都是使用*來代替所有的搜索引擎蜘蛛。 Disallow: 禁止抓取的內容的路徑 Allow: 允許抓取的內容路徑 具體結合一些通配符的用法 User-agent:* Disallow: /admin 表明禁止抓取收錄admin這個文件 Disallow: /admin/ 表明是禁止抓取admin目錄下面的所有的文件 Disallow: /a/*.htm 表明是禁止抓取a目錄下面所有以.htm結尾的網頁文件 http://www.xxx.com/a/1.html http://www.xxx.com/a/2.htm http://www.xxx.com/a/3.htm http://www.xxx.com/a/4.htm Disallow: /? 表明是禁止抓取網站中所有的動態網址也就是網址中包含?的,記住千萬不在robots文件里面直接寫上這條記錄,尤其你的網站是動態的。很有可能會導致你的網站不被收錄 我們建議大家如果你想禁止單個的動態網址 Disallow:/Show.asp?id=870 Disallow: /.jpg$ 表明禁止抓取網站中所有以jpg結尾的圖片格式 Disallow: /*.jpg 不建議大家這么寫 *后面一般跟的是網頁文件 $ 后面一般跟上的是圖片或者視頻文件 Disallow:/ b/abc.html 禁止抓取抓取b目錄下面的abc文件。這種方式是最具體的方式。 如何結合自己的網站來優化這個文件 首先你要想寫好這個文件,那么必須要知道你網站的跟目錄下面所有的文件是用來干什么的。 Disallow: /dede Disallow: /member Disallow: /data Disallow: /404.htm Disallow: /templets 除了以上是一樣的,我們還需要屏蔽自己的css文件js文件以及結合你自己的網站,你去找找哪些文件對于排名沒有用,都可以直接屏蔽掉,以及網站的死鏈接也可以使用robots文件屏蔽掉。 我們還可以在這個robots文件中寫一個允許的強調記錄,我們要允許自己的站點地圖被抓取。 Allow:/sitemap.html Sitemap:/sitemap.html 這兩種寫法是一樣的,都是表面允許抓取站點地圖的意思。 除了robots.txt可以禁止蜘蛛抓取你的網頁的文件 還有一種是鏈接的nofollow屬性這個屬性是用來告訴搜索引擎不要跟蹤這個鏈接的。 百度 網站日志分析 1、 什么叫做網站日志? 所謂網站日志指的是服務器日志,也叫錯誤日志,這個日志記錄你網站服務器的請求記錄。 通過這個日志我們可以看到網站哪些文件被抓取了,什么時間被抓取的,以及抓取是否成功。 我們需要打開主機的控制面板里面一般會有一個logs結尾的文件,那么我們的網站日志就放在那個文件夾里面。 一般日志不需要手動來分析的,我們可以直接使用光年日志分析工具 我們在主機的控制面板里面下載某一天的日志,我們利用光年軟件來分析這個日志。 概要分析是可以查看到有沒有蜘蛛來訪到你的網站的 目錄抓取 目錄抓取是可以通過它看到蜘蛛抓取了你網站的哪些目錄,抓取了的目錄,首先你要去看下,這個目錄是不是放了很多的內容文件,這個目錄對于排名來說有沒有價值。沒有價值的我們使用robots.txt屏蔽掉,不讓它在抓取,分析日志需要分析三到五天的日志,綜合對比下,看看蜘蛛這幾天重點抓取了你網站的哪些目錄 www.xxx.com/a www.xxx.com/b www.xxx.com/c 這三天蜘蛛都抓取了我的a目錄,下次更新內容的時候我們建議大家可以適當在a目錄里面多更新一些內容。假如b目錄和c目錄抓取比較少 ,看看是不是因為自己更新內容的力度不高,或者你需要分析看看你更新的內容是不是大量抄襲的
g***8
下個日志分析軟件,分析分析蜘蛛的動向。2.看看網站結構、代碼有沒有要改進的。3.分析外鏈