近期網路上發生了一件大事,傳說Google大量API文件外流了2500多頁,洩漏的文件顯示Google內部的多項操作細節,這些資料揭示了Google搜尋系統的內部運作和排名因素。我們來檢視一下這些外流的文件,並且看看國外的專家怎麼說的?
國外的專家的主要說法是 : 「這個外流的文件顯示內部細節與Google的公開聲明存在矛盾。」不過在開始討論這些外流文件之前,需要先釐清幾個重點 :
(1) 外流文件並不是詳細的演算法而是API,因此你並不知道各因素的權重,雖然文件上有個2023年8月的日期,但是並不知道哪些是已經停止使用的。
(2) 你可以把外流文件視為SEO操作的參考資料,瞭解哪些曾經被當成排名因素,但是不能把它當作SEO操作的規範。
(3) 在外流文件中看不到有關AI的部分,雖然外流的時間是2024年3月,或是上述的2023年8月,卻完全沒有AI的影子,這點很值得研究。
我們可以從這次外流的文件,瞭解什麼?
關於Clickstream
我們在2011年有篇文章"搜尋引擎優化秘密: 什麼是Clickstream (點擊流)?",指出Clickstream (點擊流) 可以說是使用者的網路瀏覽歷程,這個資料是網路行銷的寶貴資料,也是搜尋引擎的重要參考,但是Google在很多地方一直否認他們使用Clickstream來調整搜尋結果。
但是如果大家仔細思考sitelinks是怎麼來的? Google如果沒有使用Clickstream,怎麼知道各網站中最受到歡迎的網址是哪些呢? 這些最受到歡迎的網址,不就是sitelinks嗎?
在這次外流的文件中就證實了這件事情,其中的 chrome_trans_clicks 就顯示Google 可能會根據在 Chrome 瀏覽器中頁面的點擊數,來決定網站中最受歡迎或最重要的 URL,這些 URL 會用於計算哪些網址應該包括在 sitelinks 功能中。
也就是說Google使用Clickstream這件事情,並不需要透過這次文件外流來證實,因為這就是最直接的使用者行為數據。那麼為何Google需要否認呢? 因為會牽涉使用者的隱私權問題,以及會被用來影響搜尋結果。
關於Navboost
在這次外流的文件中也證實了Navboost ,它是一種依賴使用者點擊來提供搜尋信號的技術,它著重於理解這些查詢背後的意圖,並提供高度相關且準確的導航查詢結果。Navboost 系統會記錄過去查詢中用戶點擊的情況,將所有過去某些期間收到的查詢資訊進行記錄。
Navboost 結合了多種使用者信號和演算法,以確定最適合導航查詢的結果。這些信號和因素包括點擊率 (Click-Through Rate, CTR)、使用者行為、網站品質、相關性和上下文等,從而提供更優質的搜尋體驗,Navboost 其實也就是Clickstream更清楚的證明了。
關於White List
何謂White List? 就是有特殊待遇的網站群。在這次外流的文件中看到在特定議題上,有些網站群會優先出現,以確保搜尋結果的品質。
其實這個現象完全不意外,維基百科會在知識類的搜尋表現突出,Youtube會在影片類的搜尋表現突出,這不是很正常的現象嗎?
另外跟網站White List很類似的現象,就是出現在某些關鍵字搜尋的網頁類型會決定你的網頁能否出現。
我們曾經在2010年的文章"搜尋引擎排名是否跟網站類型有關係? Relation between SERP and category"提到 :
「雖然SERP是以頁為基礎,但是整體網站會影響單頁的表現」、「關鍵字組合本身就會決定想要搜尋的類型,而網頁的內容與使用者的統計也會決定網站的類型,搜尋引擎排名就會根據這兩種類型來決定」。
因此Google從關鍵字就會知道搜尋意圖,從搜尋意圖就會知道該給你哪些類型的網頁,讓你的網頁符合這個類型的條件,搜尋排名就會自然過來了。
關於Quality Rater
我們在2011年的這篇"Google Quality Rater都在做些什麼事情?"就說到,Google僱用了大批的人力進行後台資料的篩選,這些人就是「網頁品質評估者」。也就是說你的網頁是否符合需求,不只經由Google的自動化演算法來判別,還會經由人為的方式進行確認或是篩選。
在2011年的這篇"Google Quality Rater與搜尋排名的真正關係"就說到,「網頁品質評估者」所做的評估不會直接影響自然搜尋排名,而是「網頁品質評估者」所做的決定可能影響自然搜尋排名,所以我們必須關注「評估指南」。
Google對於搜尋排名有200多個訊號,「網頁品質評估者」只是其中的一個訊號,並且這個訊號是否會被當成排名訊號,也是由演算法來決定,也就是Google盡量不希望有人為的干預去影響搜尋排名,所以「網頁品質評估者」的結果只是提供一個資料,這個資料會被演算法參考,如果演算法判斷與其不同,還是會以演算法為準,如果這個差異太多或是太巨大,Google才會進行瞭解來思考演算法的修改,而最後搜尋排名結果,還是由演算法做出最後決定,而不是單一或是多個「網頁品質評估者」。
關於EEAT
EEAT就是指Experience、Expertise、Authoritativeness、Trustworthiness (經驗、專業、權威、信賴),這個並非一個實際的數值,而是散佈在很多因素中。在這次外流的文件中也看到siteAuthority,類似PageRank或是MOZ的Domain Authority的東西。
在2009年的這篇"Effective SEO : 什麼是有效的搜尋優化策略?"已經很清楚的說了,「所有的問題根源都在網站信賴度! 沒有到達一定的網站信賴度,搜尋引擎不會想辦法抓取你的網站上的更多的資料; 沒有到達一定的網站信賴度,所有有效的SEO策略都會消減其效果 … 因此追求網站信賴度是最重要的開始」。
在2013年的這篇"Google比較重視大品牌的問題嗎? 還是對於所有企業一視同仁?"也說了,「不要抱怨為什麼Google不好好處理你的資料,因為Google是否認真的處理,決定權在你的手上」。建立具有品牌訊號及有信賴度的網站,才是操作SEO的真正有效方法。
但是這些訊號怎麼建立? 有品質的連結是其中一個項目,而什麼是有品質的連結? 在2011年的這篇"檢驗20個最熱門的Google SEO迷思,一次給你正確的搜尋排名概念(一)"就清楚的告訴你,只要是「沒有正常瀏覽或點選痕跡的網頁連結」,其實都是沒有意義的。
連結策略就應該是"以人為主體的連結策略 (Link Strategy Based on Users)",必須從「被人看到」到「被人點選」為出發點。
你做了很多連結,但是從來沒有人點選,這些連結就完全沒有功用,還可能變成垃圾連結。
有專家就根據外流的文件提出了以下一些重要因素 :
RB (Relevance Boost) : 與查詢詞彙的相關性分數
QB (Quality Boost) : 網頁品質分數
CQS (Content Quality Scores) : 網頁內容品質分數
UIS (User Interaction Scores) : 使用者的互動分數
LS (Link Scores) : 網頁的連結分數
CSA (Content-Specific Adjustments) : 與內容有關的調整
並且寫成公式 :
[(User Interaction Scores + Content Quality Scores + Link Scores) x (Relevance Boost + Quality Boost) + X (content-specific score adjustments)] – (Demotion Score Aggregate)
我們就不仔細說明這個公式,因為以上的重要因素是對的,但是公式並不太正確。
把以上的重要因素再重新歸納,其實就是[相關性分數]、[使用者分數]、[品質分數],但是他缺少了一個很重要的分數,就是[結構分數]。
[結構分數]會影響[相關性分數]、[使用者分數]、及[品質分數],也會讓所有分數歸零,也就是讓Google無法索引。
連結分數的部分其實會表現在[相關性分數]與[品質分數]上,因此你可以獨立出來,也可以涵蓋在其他項目中。
把這些因素用一個公式來表示,就是新版SEO超入門所說的內容 :
因此,如果這次Google文件外流會讓你改變SEO策略,表示你以前的SEO策略是錯的。
如果你認為Google公開聲明跟這次文件外流的內容有矛盾,表示你沒有仔細思考Google演算法的核心理念 : Organizing the world's information 組織全世界的資訊。
Google自然搜尋演算法的目的就是 : 在不侵犯隱私的情況下,或是在使用者同意的情況下,讓使用者找到符合搜尋意圖的資訊。如果好好思考的話,其實Google自然搜尋演算法就是如SEO超入門寫的完全一樣啊 !!
0 留言