獲取由 Google 和其它搜索引擎編入索引的網頁至關重要,因為未編入索引的頁面將無法排名
要如何得知索引多少頁面?
現在,我們來談談分析 Google 報告的索引頁面數量的減少情況
如果網頁未被編入索引,這可能表示 Google 可能不喜歡你的網頁,或無法輕鬆抓取它
要如何得知索引多少頁面?
- 使用 "Site:網站網址"
- 在 Google Search Console 中檢查 XML Sitemap 提交狀態
- 檢查整體索引狀態
現在,我們來談談分析 Google 報告的索引頁面數量的減少情況
如果網頁未被編入索引,這可能表示 Google 可能不喜歡你的網頁,或無法輕鬆抓取它
因此,如果索引頁數開始減少,這可能是因為:
- 你被 Google 懲罰
- Google 認為你的網頁是不相關的
- Google 無法抓取
1 . 頁面是否正確加載?
確保有適當的 200 HTTP 狀態碼 ( 200 HTTP Header Status - 請求已成功,請求所希望的回應頭或資料體將隨此回應返回。實際的回應將取決於所用的請求方法 - 在 GET 請求中,回應將包含與請求的資源相對應的實體;在 POST 請求中,回應將包含描述或操作結果的實體 )
服務器是否經歷過頻繁或長時間的停機? 域名最近是否過期並延遲了?
確保有適當的 200 HTTP 狀態碼 ( 200 HTTP Header Status - 請求已成功,請求所希望的回應頭或資料體將隨此回應返回。實際的回應將取決於所用的請求方法 - 在 GET 請求中,回應將包含與請求的資源相對應的實體;在 POST 請求中,回應將包含描述或操作結果的實體 )
服務器是否經歷過頻繁或長時間的停機? 域名最近是否過期並延遲了?
對於大型網站,Xenu、DeepCrawl、Screaming Frog 或 Botify 等工具則可代替測試之
正確的狀態下應該是 200,但也可能出現 3xx ( 除了 301 )、4xx 或 5xx 的錯誤 - 這些都不是你希望編入索引的 URL 的好消息
正確的狀態下應該是 200,但也可能出現 3xx ( 除了 301 )、4xx 或 5xx 的錯誤 - 這些都不是你希望編入索引的 URL 的好消息
2 . 你的網址最近有沒有更改?
CMS、後端編輯程式或服務器設置的更改都會導致網域、子網域或文件夾的更改,從而變更站點的 URL - 搜索引擎可能會記住舊的 URL,但如果沒有正確重新定向,很多頁面就此被刪除索引
CMS、後端編輯程式或服務器設置的更改都會導致網域、子網域或文件夾的更改,從而變更站點的 URL - 搜索引擎可能會記住舊的 URL,但如果沒有正確重新定向,很多頁面就此被刪除索引
該怎麼辦?
希望仍可以某種方式訪問舊網站的文章,好記錄所有舊網址,以便將 301 重新定向映射到相對應的網址
3 . 你是否修復了重複的內容問題?
修復重複的內容通常涉及在 robots.txt 中執行 canonical 標籤、301 重新定向、no-index 標籤或 disallows 指令- 這些都可能導致索引 URL 的減少 ... 但這卻反倒是件好事的特殊情況
修復重複的內容通常涉及在 robots.txt 中執行 canonical 標籤、301 重新定向、no-index 標籤或 disallows 指令- 這些都可能導致索引 URL 的減少 ... 但這卻反倒是件好事的特殊情況
該怎麼辦?
由於這對網站有好處,因此唯一需要做的就是仔細檢查,肯定是索引頁面減少而非其它任何原因所導致
4 . 你的頁面是否定時?
一些服務器由於伴隨較高帶寬的相關成本而具有帶寬限制 - 這些服務器可能需要升級
一些服務器由於伴隨較高帶寬的相關成本而具有帶寬限制 - 這些服務器可能需要升級
有時候,問題與硬件有關,可以通過升級硬件處理或內存限制來解決
當訪問者以一定的速率訪問太多頁面時,某些站點會阻止 IP 地址
當訪問者以一定的速率訪問太多頁面時,某些站點會阻止 IP 地址
此設置是避免任何 DDOS 駭客攻擊的嚴格方法,但它也可能對網站產生負面影響
通常,這是在頁面的第二設置下進行監視的,如果閾值太低,則正常的搜索引擎爬蟲可能達到閾值,並且漫遊器無法正確爬行該站點
通常,這是在頁面的第二設置下進行監視的,如果閾值太低,則正常的搜索引擎爬蟲可能達到閾值,並且漫遊器無法正確爬行該站點
該怎麼辦?
如果這是服務器帶寬限制,則可能是升級服務的最佳時機
如果是服務器處理 / 內存問題,除了升級硬件之外,請仔細檢查是否有適當的服務器緩存技術,這樣可以減輕服務器的壓力
如果安裝了反 DDOS 軟件,則可放鬆設置或將 Googlebot 列入白名單,以便在任何時候都不會被阻止。當然有些假的 Googlebot、Bingbot 在其中 - 請務必參考 Official Google Webmaster Central Blog:How to verify Googlebot、How to Verify Bingbot - Bing Webmaster Tools 來檢測,好防止有類似的過程
如果這是服務器帶寬限制,則可能是升級服務的最佳時機
如果是服務器處理 / 內存問題,除了升級硬件之外,請仔細檢查是否有適當的服務器緩存技術,這樣可以減輕服務器的壓力
如果安裝了反 DDOS 軟件,則可放鬆設置或將 Googlebot 列入白名單,以便在任何時候都不會被阻止。當然有些假的 Googlebot、Bingbot 在其中 - 請務必參考 Official Google Webmaster Central Blog:How to verify Googlebot、How to Verify Bingbot - Bing Webmaster Tools 來檢測,好防止有類似的過程
5 . 搜索爬蟲用不同樣貌或方式查看你的網站嗎?
有時搜索引擎蜘蛛看到的與我們所看到的不同
一些開發人員在不知道搜索引擎優化的影響的情況下,以直觀方式來構建網站
偶爾會用現成 CMS,而不檢查它是否適合搜索爬蟲
有時候,它可能是由一個 SEO 試圖做內容隱藏,嘗試遊戲搜索引擎的目的
其他時候,該網站被駭客入侵,並向 Google 展示了不同的頁面,好將隱藏鏈接或 301 重新定向到它們自己的網站
更糟糕的情況是頁面感染某種類型的網頁病毒,Google 在檢測到該頁面時立即自動取消該頁面的索引
有時搜索引擎蜘蛛看到的與我們所看到的不同
一些開發人員在不知道搜索引擎優化的影響的情況下,以直觀方式來構建網站
偶爾會用現成 CMS,而不檢查它是否適合搜索爬蟲
有時候,它可能是由一個 SEO 試圖做內容隱藏,嘗試遊戲搜索引擎的目的
其他時候,該網站被駭客入侵,並向 Google 展示了不同的頁面,好將隱藏鏈接或 301 重新定向到它們自己的網站
更糟糕的情況是頁面感染某種類型的網頁病毒,Google 在檢測到該頁面時立即自動取消該頁面的索引
該怎麼辦?
使用 Google Search Console 的 "Google 模擬器" 功能是查看 Googlebot 是否看到與你相同
延伸閱讀:使用網站專用的 Google 模擬器
索引頁面不被當作典型的 KPI 指標
關鍵績效指標 ( KPI ) 有助於衡量 SEO 活動的成功,通常圍繞著自然搜索流量和排名
但 KPI 更傾向於關注與收入相關的業務目標
索引頁面頁面的增加可能會增加可導致更高利潤的關鍵字進行排名的可能數量
索引頁面頁面的增加可能會增加可導致更高利潤的關鍵字進行排名的可能數量
但是,查看索引頁面的主要目的只是為了了解搜索引擎是否能夠正確地抓取並索引
請記住:「當搜索引擎無法查看、抓取或編制索引時,網頁就無法排名!」
請記住:「當搜索引擎無法查看、抓取或編制索引時,網頁就無法排名!」
索引頁面的減少並不見得是件壞事
大多數情況下,會發生索引頁面的減少會讓人直接聯想成壞事,但修復重複內容、精簡內容或低質量內容也可能導致索引頁面數量減少 ... 所以想想也是一件好事
通過查看索引頁面出現故障的上述五個可能原因,了解如何評估你的網站
大多數情況下,會發生索引頁面的減少會讓人直接聯想成壞事,但修復重複內容、精簡內容或低質量內容也可能導致索引頁面數量減少 ... 所以想想也是一件好事
通過查看索引頁面出現故障的上述五個可能原因,了解如何評估你的網站