AI搜尋時代,SEO會不會死?
AI搜尋時代,傳統搜尋與SEO會不會死? 其實是一個假議題,就好像問 : 「AI出現後,還需要人類嗎?」傻孩子,AI搜尋架構於傳統搜尋引擎之上,才能夠有完整最新的訓練資料,也才能夠快速取得最新資訊來生成答案。
有人說AI搜尋給的答案跟傳統搜尋完全不一樣,所以SEO完蛋了。其實這種說法也不能說完全錯誤,但是犯了「見樹不見林」的錯誤。
網站內容要能夠出現在AI搜尋或是傳統搜尋,都必須要符合某些「基本條件」,符合了之後才算是獲得了搜尋比賽的入場券。SEO操作者應該要很慶幸,因為SEO是最快可以銜接AI搜尋時代的技術了。
AI搜尋與傳統搜尋挑選勝利者的方式雖然有些差異,但是SEO就是培養網站符合「基本條件」的方法。只要你的SEO操作再去微調符合AI搜尋挑選勝利者的方式,那麼你就能夠在AI搜尋與傳統搜尋的比賽中勝出獲得雙贏。
在前面的文章"AI搜尋是什麼? 與傳統搜尋的差異是什麼?"提過,「大型語言模型同樣必須依賴爬取與索引流程,差異只在大型語言模型是否使用傳統搜尋引擎的資料來源」。 也就是說AI搜尋其實是站在傳統搜尋的成果上繼續發展,而非橫空出世地不需要傳統搜尋引擎。
在這篇文章"AI搜尋革命:AEO、GEO會取代SEO嗎?"也說過,「AI搜尋並非對傳統搜尋的完全顛覆,而是在保持核心價值觀的基礎上的技術升級」。
Neil Patel在文章"Large Language Model SEO (LLM SEO)"也說了 : 「LLM SEO builds on traditional SEO. You still need a strong technical and content foundation.」 意思是 LLM SEO建構在傳統SEO上,你還是需要健全的技術以及內容當成基礎。
因此基於傳統搜尋引擎而生的SEO,也就沒有已經死亡的問題,而是隨著傳統搜尋引擎賦能AI搜尋下持續變化而已。也就是SEO研究院一貫的論點 : 「只要搜尋活動沒有消失,SEO會依舊持續活躍」。
因此,不要再問SEO會不會死了,真正的問題是SEO應該如何演化來適應AI時代?
AI與傳統搜尋的完美結合
這篇"When Search Engine Services meet Large Language Models: Visions and Challenges"更是認為 : 「大型語言模型與搜尋引擎具有整合的雙向價值」,也就是說搜尋引擎能夠幫助 LLM 提升,LLM 能夠增強搜尋引擎的功能。
這個論點跟我們之前說的一樣 :
傳統搜尋的資料來源主要依靠搜尋引擎已索引資料庫,並按關鍵字與演算法排序;而AI搜尋則依賴已索引資料 + AI 模型訓練知識 +(有需要時)即時資料/授權 API,可能同時擷取多個來源整合。
因此在AI結合傳統搜尋之後,已經不是「既生瑜何生亮」誰生誰死的問題,而是兩個堪稱「雙劍合壁」產生相輔相成的效果。
搜尋引擎提供多樣高品質資料給LLM,可以利用這些海量資料庫作為訓練語言模型以及推論的材料來源。LLM可以將查詢詞優化,重寫或建議更精準的查詢語句,提升搜尋結果相關性,更可以生成摘要方便搜尋引擎索引與提升搜尋效率。
如同在"Google Web Guide 是什麼? 能否挽救因AI搜尋而流失的搜尋流量?"提到的,Google打算在不影響網站自然搜尋流量的情況下,還讓搜尋者可以獲得AI的協助,得到最精準而深入的搜尋結果,這個Web Guide算是將AI與搜尋引擎的結合做了蠻不錯的設計,再加上既有的AI Overview以及AI Mode,更是證明了AI結合傳統搜尋的優勢。
但是無論如何,不要管SEO會不會死了,因為你的網站自然搜尋流量就是被腰斬了,因此要如何恢復流量比較重要。
其實網站只有把SEO做好,再配合AI搜尋的喜好做調整,就能夠持續在網路上獲得關注。
AI搜尋時代,要如何恢復流量?
不管在「傳統搜尋」還是「AI搜尋」時代,雖然都要想辦法提升「網站健康度」,並且撰寫符合「搜尋需求」的內容,但是在細節上還是有許多不同。
SEO研究院把「AI搜尋」時代的網站操作說明如下 (歡迎引用,但請勿抄襲 ^^) :
C L O U D S 就是「AI搜尋」時代的網站操作法寶。
C是內容優化 Content Optimization,L是連結優化 Link Optimization,O是頁面優化 On-page Optimization,U是可用性優化 (Usability Optimization),D是可發現性優化 Discoverability Optimization,S是結構優化 Structure Optimization,這六大項就是AI搜尋與傳統搜尋的操作法寶。
(1) 內容優化 (Content Optimization)
用一句話來形容內容優化,那就是「內容要超乎讀者想要的」。
內容對於SEO來說當然是核心,對於傳統搜尋如此,對於AI搜尋也是如此。SEO研究院也一直強調「內容為王、結構為后」,沒有健全結構的網站內容無法撐起一個網站,光有結構而沒有深入且具有品質的內容也無法讓使用者喜愛。
但是在 AI 搜尋的時代,單純的「關鍵字文章」已經不足,符合「搜尋需求」的內容也只是基本條件,現在的內容還需要具備 「可引用性」,也就是 AI 在生成回覆時能快速抽取並引用你的內容作為權威答案。
AI 搜尋時代的內容必須更符合以下特質:
(a) 結構清晰 (Clear Structure)
⏹︎ 控制段落長度:每段 2–5 句最佳,如果每句都不長,也盡量避免超過 10 句。
內容編排時應保持簡潔明瞭,避免囉嗦或過度鋪陳。這樣的篇幅能確保資訊集中,讓 AI 在進行語義切割時更容易鎖定重點,也避免讀者在長篇段落中迷失。
⏹︎ 善用小標題 (H2/H3):讓讀者與 AI 都能快速定位主題。
同時必須善用小標題 (H2/H3)、項目符號 (bullet points)、數字編號 (numbered lists) 來標示文章層次。清楚的結構能幫助 AI 理解段落之間的關聯,也能提升搜尋引擎的可讀性。對使用者而言,這種分層呈現讓他們能快速瀏覽與定位自己想要的答案。
並且以使用者問題導向 Who、What、How、Why 來撰寫小標題 ,或者更深入的7W5H。
WHO 這個主題跟誰有關? 也就是誰會需要這個主題。
WHAT 這個主題是什麼? 也就是名詞解釋。
WHY 這個主題為何發生? 或是為何會需要這個主題。
WHERE 這個主題發生在何處? 應用在何處?
WHEN 這個主題發生在何時? 何時會應用到?
WHICH 這個主題中有選項,是指哪個?
WHOM 這個主題中有接受者,是指誰?
HOW 這個主題如何操做?
HOW MUCH 多少錢?
HOW MANY 多少量?
HOW LONG 多長時間?
HOW OFTEN 多頻繁發生?
以上的7W5H並不是所有主題都需要套用,而是挑選能夠想到的。
例如,現在主題是「AI搜尋時代,SEO如何操作?」就會衍生 : (Who) 誰會需要這些操作方法? (Why) 為何會需要? (How) 如何操做? (How Long) 需要操作多長時間?
誰會需要這些操作方法? 當然就是任何網站都需要,尤其是因為AI搜尋出現而搜尋流量銳減的網站。
為何會需要? 因為如果沒有因應AI搜尋特性來演進SEO操作,很可能會無法恢復流量。
需要操作多長時間? 端看搜尋流量銳減的程度,如果腰斬的話,應該至少需要六個月的時間才能逐漸恢復。
如何操做? C L O U D S 就是「AI搜尋」時代的網站操作法寶啦 !!
⏹︎ 單一聚焦:每段回答一個問題或闡述一個觀點,方便 AI 抽取。
每個段落應聚焦於單一問題或觀點,避免在同一段落中混合多個主題,導致資訊被稀釋或斷裂。AI 模型偏好「單一問答對應」的內容結構,因為這樣能直接抽取一段就形成完整回答。
舉例來說,如果一篇文章談「SEO 的三大重點」,建議拆成三個小段落,而不是把三個觀點硬塞進同一段落。
實際範例 : 原始冗長段落 (以下為不利 AI 引用的範例) 如下 :
「在 AI 搜尋時代,內容的結構必須清晰,因為如果段落過長,AI 在處理時容易將多個重點混在一起,造成語意不明,讀者也會覺得難以快速吸收資訊,所以我們建議段落應該縮短,每段大約 2 到 5 句,同時在文章中要加上小標題、清單或項目符號來區隔層次,這樣不但能讓搜尋引擎更容易理解,也能讓讀者在短時間內找到答案,進而降低跳出率,提升整體體驗。」
改寫後的清晰結構 (以下為利於 AI 與讀者引用的範例) 如下 :
☑︎ 在 AI 搜尋時代,內容結構必須簡潔,避免段落過長。
☑︎ 建議每段控制在 2–5 句,方便 AI 抽取重點。
☑︎ 善用 小標題、清單、項目符號,讓資訊層次分明。
☑︎ 好處是 AI 更容易引用,人類讀者也能快速找到答案,降低跳出率。
(b) 來源可信 (Credibility & E-E-A-T)
在 AI 搜尋時代,內容不僅要正確,還必須讓 AI 與人類讀者都能夠「相信」,這也是 Google 所強調的 E-E-A-T 原則:
Experience (經驗):內容是否展現實際經驗?例如「親自操作某工具的心得」比單純轉述更具說服力。
Expertise (專業性):是否來自專業人士或具備相關背景的人撰寫?專業背景能提升內容的可信度。
Authoritativeness (權威性):內容是否引用權威來源?像是學術研究、官方文件或知名專家觀點。
Trustworthiness (可信度):是否透明標示作者、日期、來源?是否有明確的參考文獻?
SEO研究院也在"SEO達人筆記 (二) : 你搞不懂的EEAT,其實很簡單"說過 :「EEAT好壞就會顯示在網站被索引的狀態上 (是否完整且快速)」。
以下是實際操作建議 ~ 有助於傳統搜尋與 AI 搜尋的雙重優化。
⏹︎ 標示作者與背景:文章中應清楚標註作者姓名與專業背景,避免匿名或「無人背書」的內容。 這個部分很不容易,我們都還在努力中。
⏹︎ 引用可靠資料:適度連結或引用學術研究、政府機構、專業組織的資料,提升 AI 與讀者的信任感。
⏹︎ 保持透明:明確標示文章發表日期與更新時間,讓讀者知道資訊是否最新。
⏹︎ 專業背書:可引述專家意見,或在文章末附上參考資料清單,讓 AI 能更好地理解內容的來源脈絡。
⏹︎ 避免過度商業化:若內容看起來只是銷售文案,可信度會大幅下降,無論是 AI 還是人類使用者都會降低信任。
這樣做的好處是 AI 會優先引用可信內容,具備明確作者、來源的內容更容易被 AI 抽取作為「權威回答」。 讀者也更願意採信,透明與專業讓使用者覺得可靠,增加停留時間與分享率。
(c) 多模態支援 (Multimodal Support)
在 AI 搜尋與引用的時代,單純的文字內容已經不足以吸引AI與讀者。若能夠在網頁中同時提供 圖片、影音 (Video)、表格、資訊圖文 (Infographics) 或互動模組,將能大幅提升被 AI 選為引用來源的機率,並比較可能成為連結來源。這樣的多模態內容,能同時滿足使用者不同的資訊需求,也讓 AI 有更多可解析與引用的素材。
並且多模態可以增加額外曝光入口,正確實作的圖片與影片,除了一般搜尋外還能在 Google Images 與 Video、Discover 等入口獲得曝光。圖片與影片若能再增加結構化資料,還可帶來額外曝光並幫助理解。
具體做法如下 :
⏹︎ 使用圖片時,使用高品質、加上 alt 描述的圖片,讓 AI 與搜尋引擎能理解其語意。如果可能,可以再加上結構化資料,強化圖片的說明。
⏹︎ 嵌入影片時,可以搭配逐字稿 (Transcript),提升 AI 理解與引用的可能性。
⏹︎ 盡量使用表格 (Table) 語法而不是CSS,將數據或比較資料結構化,可以更方便 AI 擷取。
⏹︎ 使用資料圖文 (Infographic) 可以將複雜資訊視覺化,提升引用與轉載價值。
⏹︎ 使用互動式內容,例如計算器、地圖、篩選器,能提供額外價值,增加頁面停留時間與權威性。並且互動式內容較不容易直接擷取,AI勢必要提供你的連結讓讀者點選。
以上作法,不僅有利於AI搜尋的引用,也對於SEO多有加分作用,多模態內容能增加關鍵字覆蓋與使用者互動率,對傳統 SEO 與 AI 搜尋都有幫助;多模態呈現更專業、可信,符合 Google 與 AI 判斷的權威內容標準,可以強化 E-E-A-T;並且圖片可能被 Google Images 收錄,影片可能在 YouTube 產生額外流量,表格與 FAQ 則適合進入 AI Overviews 的答案區塊。
(d) 主題串 (Topic Cluster)
在 AI 搜尋與新的 SEO 時代,內容不能只是單篇文章的競爭,而是需要建立一個有系統的知識地圖 (Knowledge Map)。 主題串策略就是以一個核心主題為中心,透過「支柱頁 (Pillar Page)」統整全局,再由多篇子文章延伸,彼此之間形成互相支撐的網狀結構。
為什麼需要主題串?
當搜尋引擎與 AI 發現你的網站在某一主題下有完整的內容架構,就會更傾向將你視為該領域的權威來源。並且支柱頁提供總覽,子文章則深入探討各個面向,讓使用者能從不同角度獲取答案,滿足「由淺到深」的需求層次。
AI 在生成回答時,會偏好有「完整性與深度」的來源。主題群集能讓 AI 清楚理解你的內容脈絡,更容易被引用。
這篇文章"如何產生主題串 (Topic Cluster)?"說到,產生主題串 (Topic Cluster) 方法很多,工具也很多,沒有一個固定的方法,也沒有固定的格式,當然也就沒有對錯的問題,完全看你寫出來的主題能否命中使用者的搜尋意圖,以及你建立起來的相關性是否緊密。
具體做法如下 :
⏹︎ 支柱頁 (Pillar Page)
你可以撰寫一篇總覽性文章,涵蓋主題的所有面向。 建立清晰的結構,這頁通常作為「目錄 + 總結 + 入口」。 例如:《MySQL 教學 : 你應該知道的資料庫知識》作為支柱頁,這個頁面就包含了所有MySQL學習與教學的知識,然後再分支連結到其他子文章。
⏹︎ 子文章 (Cluster Content)
每篇子文章深入探討一個細節,而且只探討一個細節。 透過內部連結 (Internal Linking) 與支柱頁互相串連。例如:《What is RDBMS?》作為子文章,只探討關聯式資料庫是什麼,並且提供很多相關權威內容的外部連結給讀者點選。
例如:《關聯模式的五大鍵》作為支柱頁,深入探討Super key、Candidate Key、Primary Key、Alternate Key、Foreign Key是什麼,深入淺出以例子說明在資料庫中這五個關聯鍵的定義。
⏹︎ 內部連結網路 (Internal Linking Network)
每篇子文章可以再連回支柱頁,並適度彼此交互連結。 這樣能讓搜尋引擎與 AI 理解你的網站結構。當然這些網頁的連結互聯,也不用太刻意,「適度」的安排很重要。
(e) FAQ 與 How-to 類型內容
FAQ 與 How-to 都是 Schema 的結構化資料,FAQ是用問答形式回覆 Who/What/Why/How,主要是回答跟你的網站主題有關的常見問題;How-to是具體步驟化,方便 AI 轉換成「解決方案」的回答。
例如:《MySQL面試常見問題》 就是以FAQ的方式建構,使用Schema的FAQPage結構化資料,將面試常見問題展現出來。
Google 雖然在 2023-09-13 起全面停止顯示 How-to Rich Results,相關文件與報表也已下架;但是網頁仍可保留 HowTo 結構化資料以利語意理解與 AI 可引用性,只是不再產生 Google Rich Result。因此不要以為Google放棄了HowTo 結構化資料,在AI 可引用性上依舊有其作用。
(2) 連結優化 (Link Optimization)
用一句話來形容連結優化,那就是「把網站內外的相關性都串連起來」。
網站內的連結包含 : 內部連結 (Internal Links)、聯外連結 (Outbound Links)、外來連結 (Backlinks)。
⏹︎ 內部連結 : 在你的網站內網頁互相串聯的連結,這類連結是資訊架構的一部分,可以讓搜尋引擎、讀者、AI了解各網頁間的關係。例如你有一個分類[連結優化],這個連結所連結的網頁就一定是跟[連結優化]有關的內容。
內部連結的主要目的是要把網站相關的主題串在一起,SEO研究院於2019年《如何產生主題串 (Topic Cluster)?》就告訴大家內部連結的操作 : 核心主題頁將各主題串聯起來,在各段落連結到子主題頁,再各由子主題頁連回核心主題頁,如此可以建立該主題的緊密相關性。
⏹︎ 聯外連結 : 從你的網站往外部網站串聯的連結,這類連結的意義在告訴搜尋引擎及AI,這個網頁在談的內容跟這個外部網頁在談同樣事情,也讓讀者可以點選過去閱讀更多參考資料。
聯外連結的主要目的是要跟權威站在一起,例如談到某個專業名詞,就可以連結到維基百科,或是連結到這個領域的權威網頁,因為搜尋引擎跟AI自己都已經有各領域權威網頁的口袋名單,因此你的網頁連結這些權威網頁,他就能夠比較快速知道你談的內容是什麼。
SEO研究院於2009年《Outbound Link Effect : 對外連結效應》就已經告訴大家 : 不是backlink才對你的網頁有效, 也要注意 Outbound Link Effect !
⏹︎ 外來連結 : 從外部網站連到你的網站的連結,這類連結的重要性最早源自於學術論文的引用 (Citation),當A學術論文談到某個觀點,而這個觀點是由另外一篇論文B更早提到時,A論文便會在參考資料中把論文B寫進去,被當成參考資料越多就表示這篇論文越重要。
後來Google的創辦人賴利·佩吉 (Larry Page) 就利用學術論文的引用特性,創造了以PageRank為基礎的Google搜尋引擎,學術論文的引用就是網頁間的連結,利用公式來計算各網頁具有多少PageRank數值,就可以知道網頁的重要性。
PageRank的演算法也經過許多演化,例如以詞彙相關性來計算的Associated PageRank,或是以主題相關性來計算的Topic Sensitive PageRank。不過由於公開PageRank數值的計算導致許多作弊的情事發生,因此Google就取消了PageRank的公開查詢,只當成Google內部的參考。
雖然如此,操作外來連結依舊是許多傳統SEO操作者的手法。外來連結不是可控範圍,不過只要你的網頁具有權威度與可性度,就可以達到近悅遠來的產生磁吸效果,讓大家願意連結到你的網頁,因此有品質的外來連結是一個提升EEAT的有效方法。例如這個日本的網頁https://www.genspark.ai/,就連結到SEO研究院的網頁,使用我們的分析圖表。
不過操作外來連結要注意的是 : 沒有品質、沒有相關性、沒有流量效果的外來連結,不要浪費時間去操作。
(3) 頁面優化 (On-Page Optimization)
頁面優化在傳統SEO與AI搜尋有不同嗎? 老實說大部分是完全一樣的,不同的只有兩點 : 傳統SEO優化的是「網頁」,而AI搜尋需要優化的是「段落」;傳統SEO優化要追求的是流量,而AI搜尋追求的是曝光與引用。
內行人都看得出來,「段落」優化得好,「網頁」自然就優化了;有了曝光與引用,久了流量就跟著來了,所以兩者其實是殊途同歸的,只是AI搜尋需要優化的更細緻一些罷了。
頁面優化包含「看得見」的與「看不見」的部份,「看得見」的部份就是在瀏覽軟體呈現出來的元素,「看不見」的部份就是網頁的內碼。
用一句話來形容頁面優化,那就是「把網站看得到跟看不到的都照顧到了」。
⏹︎ 「看得見」的部分:畫面與內容層 (User-visible)
這些是使用者在瀏覽器中會直接看到、互動到的元素,會影響可讀性、可引用性與點擊意圖。這個部分的「內容層」跟內容優化有些重疊,就不再重複,但是也有些微不同的要點。
(a) 內部連結與錨點文字(Internal Links & Anchor Text)
連到相關子頁或支柱頁,要有明確語意的錨點文字,避免「點這裡」或是沒有ALT的圖檔。
使用者和 Google 可以從錨點文字稍微瞭解連結所導向的網頁,建議的錨點文字是網頁的標題,或是簡要的敘述,應該避免過度冗長的文字。
並且別忘了為連結提供上下文,連結前後的文字很重要,請留心句子的整體性。
(b) 導覽與麵包屑 (Navigation & Breadcrumbs)
清楚的導覽有助探索,麵包屑在頁面中可以提供脈絡(可搭配結構化資料屬於「看不見」的標記)。
因為爬蟲在爬取網頁時,也會記住路徑,如果從網頁A連到網頁B,再由網頁B連到網頁C,那麼網頁A與網頁B的相關性就會高於網頁C,而網頁B與網頁A、網頁C的相關性就相同,如果再搭配更多的資訊,例如錨點文字、結構化資料,那麼對於網頁間的關係就更清楚了。
(c) 行動版排版與視窗設定 (Responsive Layout & Viewport)
行動版友善設計是現代網站的「基本人權」,行動設備瀏覽響應式網頁時,應該避免字體過小或需要橫向捲動,也要考慮到可點選的物件是否容易點選。
網頁內的 <meta name="viewport" content="width=device-width, initial-scale=1.0"> 是基本盤,如此可以讓網頁可以適應行動設備的大小。
糟糕的行動版排版會讓搜尋引擎判定為「行動裝置不友善」,導致在 Mobile-First Indexing 中排名降低,網站會被視為較低品質、較不權威的來源。如此在AU搜尋進行查詢時,被 Bing 或 Google 選中作為權威資料來源的機率就會大幅下降,最終無法成為 AI 的答案。
您可以把搜尋引擎的爬蟲想像成一位餐廳的「秘密客」,這位秘密客雖然自己不吃飯,但他的任務是模擬真實顧客 (手機使用者) 的體驗來撰寫評鑑報告。如果他發現餐廳的座位擁擠 (橫向捲動)、菜單字太小 (字體)、餐具不好拿 (點選物件),就算廚房 (後端伺服器) 再乾淨、菜色 (內容)再好,他給出的綜合評分也絕對不會高。而這份低分報告,就會讓 AI 這個「美食家」在選擇參考餐廳時,直接跳過。
(d) 體驗與速度(UX & Core Web Vitals)
體驗與速度是影響使用者滿意度的關鍵因素之一,也被 Google 視為SEO評估的重要面向,也是我們後續要說的可用性優化。 Google 透過三大 Core Web Vitals 指標,衡量網頁載入體驗與互動流暢度,分別是:
LCP (Largest Contentful Paint):主要內容載入時間,建議小於 2.5 秒。
INP (Interaction to Next Paint):INP 指標會觀察使用者造訪網頁期間,所有點擊、輕觸和鍵盤互動的延遲時間,藉此評估網頁對於使用者互動的整體回應時間,建議小於 200 毫秒。
CLS (Cumulative Layout Shift):版面穩定度,建議分數小於 0.1。
⏹︎ 「看不見」的部分:
(a) 網頁的meta標記 (Meta tag)
在傳統SEO中,存在<head>的<Title>標記是出現在瀏覽軟體上的標題,<description>是不顯示的網頁描述。但是在AI搜尋中,這兩個標記都是頁面的摘要,會直接影響AI判斷網頁內容的根據。如果這個摘要讓AI認為與主題不夠符合,很可能就跳出不再爬取內容。
(b) 索引控制 (Indexing Control)
網頁或檔案可以用X-Robots-Tag,網頁還可以用meta robots標記來控制是否允許索引,另外也可以用Robots.txt來規範爬蟲的抓取。透過這些方式讓搜尋引擎知道如何索引,也讓AI搜尋知道如何引用。
(c) 標準化網址 (Canonical)
標準化網址的主要目的是讓搜尋引擎知道索引的標的,不要做白工。同樣的,也可以讓AI搜尋知道哪些網頁是重複的。
(d) 多語版本 (hreflang)
SEO研究院在"Hreflang在AI搜尋時代還重要嗎?"說過,為了避免發生任何錯誤,如果你的網站屬於多語系網站 (不同語言版本),或是同一語言但有不同地區版本,就需要使用Hreflang標記。
(e) 結構化資料 (Structured Data, JSON-LD)
SEO研究院在"結構化資料標記與SEO"說過,常見的結構化資料標記格式有三種 (當然還有其他種) : JSON-LD (JavaScript Object Notation for Linked Data)、Microdata、Rdfa。其中以JSON-LD被Google推薦使用,因為用法最簡便。
並且結構化資料標記是提升SEO策略的重要組成部分,它不僅幫助搜尋引擎更好地理解和索引您的網站內容,還能提升用戶體驗,增加網站的可見性和吸引力。正確實施結構化資料標記,將為您的網站帶來長遠的好處。同樣的,AI也是使用者,結構化資料標記具有同樣的效果。
(f) 資源提示與載入策略(Resource Hints & Loading Strategy)
這個是為了提升網頁在載入時的效能,也是提升 Core Web Vitals 指標的重要方法之一。例如使用 preload、dns-prefetch、async、defer、快取與壓縮策略等,讓瀏覽網頁時可以優先載入或是預先載入重要的元素。
(4) 可用性優化 (Usability Optimization)
用一句話來形容可用性優化,那就是「把使用者放在第一位」。
可用性優化在傳統SEO操作,本來就是很重要的事情,SEO研究院經常講 : 「如果你的SEO操作都能夠以使用者的需求為優先考量,你根本不用理會Google的演算法規則」。
傳統SEO操作的可用性優化在做的就是 : 讓使用者無礙的瀏覽你的網站。要達到這樣的目的,網站效能要優秀 (也就是優化Core Web Vitals),不能讓使用者迷路 (也就是網站的資訊架構要完善)。
現在,進入AI 時代,這個黃金準則不但沒有改變,反而變得更加重要。我們只需要在「使用者」的定義上,增加一個新的成員。 在 AI 時代,可用性優化是:讓「人類」與「AI」這兩種使用者,都能無礙地瀏覽並『讀懂』你的網站。
並且,AI搜尋時有些網頁爬取的動作需要很快速,如果您的網頁回應緩慢,它可能會被判定為低品質來源,或者直接被超時放棄,轉而抓取其他載入更快的競爭者網頁。
上述SEO研究院經常講的話可以修正一下 : 在 AI 時代,如果你的網站優化都能夠以「人類與 AI 這兩種使用者」的需求為優先考量,你根本不用理會演算法的細節規則。
(5) 可發現性優化 (Discoverability Optimization)
用一句話來形容可發現性優化,那就是「沒有被發現,別人就根本不知道你的優秀」。
就好像一間米其林三星餐廳開在一個沒有路可以到達的山巔,誰會去消費? 「被發現」就是參與搜尋比賽的門票,被發現之後爬蟲才能到達網站開始挖掘內容,你的優秀才有機會被散佈出去。
也許你會疑問,在 Google 網站管理員 (Search Console) 送出 Sitemap 或是透過網址審查,不就好了嗎? 還需要做什麼?
在操作傳統SEO時,確實透過以上操作就可以了,但是要做到AI搜尋優化,這樣是不夠的,因為Google爬蟲開始知道你的網站,並不代表AI爬蟲也知道你的網站,就算知道了,也還必須讓他認為值得引用。
SEO要因應AI搜尋時代的變化,就是要在「可發現性」上增加被AI發現的機率,也就是進行「可發現性優化」。對於傳統搜尋引擎來說,增加「可發現性」比較簡單,但是對於AI搜尋優化來說,你就必須知道他可能接觸到你的網站的途徑有哪些。
AI搜尋的機制會在兩個階段接觸資料 : 大語言模型的訓練期 (包含預訓練與微調)、以及推論期。
(a) 在大型語言模型的預訓練期 (Pre-training phase),接觸資料的來源是公開的大規模語料。
語料 (corpus) 是指蒐集起來用於提供大語言模型訓練的資料集,這是指沒被限制存取的海量公開文本和程式碼 (再利用須遵守授權或網站條款),來源有開放網頁語料 (Open Web Corpora)、經過清理的大規模網頁語料 (Cleaned Web Corpora)、百科與知識庫 (Encyclopedias & Knowledge Bases)、新聞語料 (News Corpora)、問答與社群論壇 (Q&A and Communities)、程式碼語料 (Source Code Corpora)、書籍與學術資料 (Books & Academic Papers)等。
這些資料的共通特性是可自由存取 (publicly available)、多屬未標註的資料 (unlabeled data)。但請注意「publicly available」不等於「公有領域 (public domain)」,再利用仍需依各來源授權或條款辦理。
你的網站如果沒有設定robots.txt限制存取或是網頁以noindex標記,技術上就有可能被部分開放爬蟲擷取,實際是否收錄仍取決於各爬蟲策略與品質門檻。
例如下圖,從 https://index.commoncrawl.org/ 可以查到「SEO研究院」的網頁內容存在開放網頁語料中 :
因為預訓練的目的是讓模型學習語言結構、語意關聯、世界知識等「通用能力」,因此如果你的網站是預訓練期的資料,只能有「內化」的效果,而不會有增加曝光或流量的效果。
什麼是「內化」的效果? 就是你的特殊理念有機會成為大型語言模型的基本理念,例如SEO研究院一直強調「內容為王、結構為后」,當有人問到「結構重要還是內容重要」,這句話的意涵就可能會出現,只是大型語言模型不會記得從哪有這樣的概念。
就好像你讀了很多書,但是這些書的內容都「內化」在你的觀念中,而你並不會記得從哪得到這樣的觀念。就像SEO研究院雖然出了很多SEO書籍,但是一般人閱讀這些書籍吸收後,大概都不會記得知識是從哪獲得的。
除了內化之外,再舉個例子,「SEO研究」是一個常見的通用詞彙。 如果「SEO研究院」網站的內容有被蒐錄進公開語料,那麼模型在預訓練時也會把「SEO研究院」視為一個詞串學習起來。 雖然出現頻率可能比「SEO研究」低,但仍有機率被模型學習。
因為預訓練期的資料是海量的,要讓大型語言模型認知「SEO研究院是一個SEO專業網站 」、「艾瑪絲是一個洗髮精品牌 」、「ASUS是一個電腦品牌 」,這些資料就必須夠多。
「預訓練」階段雖然沒有增加曝光或流量的效果,但是對於品牌來說依然很重要,並且要注意維持品牌名稱、產品名稱的一致性、讓機器可讀可懂,不要出現「艾馬絲 」、「愛瑪絲 」、「艾瑪斯 」等不同的名稱,並且透過結構化資料讓大型語言模型知道這是品牌。
(b) 在大型語言模型的微調期 (Fine-tuning phase),接觸資料的來源是經過人工標註的資料。
微調期也是包含在訓練期中,不過資料來源就不是海量資料,而是用規模較小但精選的人工標註資料 (labeled data) ,資料量可能是數千筆到數百萬筆,來教模型符合特定任務或行為期望。
一般網站就沒有機會參與大型語言模型的微調期,因為例如ChatGPT之類的通用人工智慧,大概會做兩種微調 : 「對齊訓練」與「通用微調」。「對齊訓練」是讓模型行為符合人類價值與偏好,「通用微調」是教模型如何完成任務,這個階段的資料集是高度內部且機密的,因此一般網站的內容即使品質再高,也幾乎不會被用來作為微調資料。
當然你可以將開源的大型語言模型自己做微調,用自己特定領域的、小規模的、高品質的標註資料,對其進行「再訓練」,使其成為特定領域的專家。不過這個大多應用在企業內部,或是特定目的公開使用 (例如企業客服),就不是大家習慣使用的通用人工智慧。
總之,一般網站的SEO操作就跟大型語言模型的微調期沒有什麼關係。
(c) 在大型語言模型的推論期 (Inference phase),接觸資料的來源是透過外部資料來源補充知識。
推論期就是將已經訓練完成的模型「拿來使用」的階段,在這個階段,模型的學習過程已經結束,其內部參數已經不再變動。它的唯一任務就是接收新的、從未見過的資料(例如:使用者的提問、一張圖片、一段聲音),然後運用它在訓練期間學到的知識和模式,快速地「推論」出一個最可能的結果並輸出。
雖然推論期已經訓練完畢,本身不再更新模型參數,但可以透過外部資料來源來補足知識不足、提升回答正確率,常見方式包括: 外掛知識庫、搜尋引擎搜尋結果、使用者上傳的檔案、連接器資料庫等。
這種透過外部資料的做法屬於「檢索增強生成」(Retrieval-Augmented Generation、RAG),會把檢索到的資料當作上下文提供給模型參考,但不會寫進模型參數。
SEO操作在這個階段就是要讓網站存在這些外部資料中,就可能成為AI搜尋的輸出結果。
如果不去管使用者自己又連接什麼外部資料,目前給大眾使用的ChatGPT其外部資料就是Bing的搜尋結果,以及搜尋結果網頁的內容。類似的情況,各大型語言模型外部資料就是搜尋引擎,可能是Bing、Google或其他合作來源。
在這個階段就是操作SEO的戰場了,能夠在搜尋排名表現優異,就有較好的AI搜尋機率。但是,如果你使用的大型語言模型還有其他自己的外部資料,搜尋排名就不是唯一參考。
因此才會發生AI搜尋結果跟傳統搜尋差異很大的情況,一來是因為AI挑選網站與傳統搜尋引擎不同,二來是因為AI搜尋還有外部資料。
舉個例子,如果你去詢問Gemini時,被判定你的問題屬於Google Scholar類型,Gemini就會從Google Scholar去找答案,而不是Google搜尋;如果你的問題被判定屬於Google Knowledge Graph類型,Gemini就會從Google Knowledge Graph去找答案。
簡單來說,想要優化AI搜尋,戰場就是傳統的搜尋結果、Google Knowledge Graph、Google News、Google Scholar,或是可能成為大型語言模型的外部資料庫。
因此如果能夠成為大型語言模型需要的資料,就有機會被AI引用,不管是被內化使用還是真的被引用或展示連結,都是SEO演化時需要顧及的。
(6) 結構優化 (Structure Optimization)
用一句話來形容結構優化,那就是「結構如果是零分,你的一切努力就會事倍功半」。
結構優化目的是讓內容很快被找到、被理解、被定位;可用性優化目的是讓使用者把事做完、做得快、且滿意。結構優化跟可用性優化有時候是綁在一起的,好的結構可以提高可用性,不好的結構就會降低可用性。
結構優化也可以說就是要把網站的資訊架構 (Information Architecture) 進行優化,一個好的資訊架構主要由以下四個系統構成:
(a) 組織系統 (Organization Systems): 決定如何將資訊分門別類,這就好比決定超市的商品要如何分區擺放 (生鮮區、零食區、家用品區等)。
(b) 標籤系統 (Labeling Systems): 決定如何命名資訊的分類或連結,標籤就是我們在網站上看到的選單項目、標題、按鈕文字等。
(c) 導覽系統 (Navigation Systems): 提供使用者在資訊之間移動的方式,這就像是建築物裡的樓層指示牌、電梯和地圖。
(d) 搜尋系統 (Search Systems): 當使用者不想透過瀏覽來尋找資訊時,提供他們直接查詢的工具。
資訊架構在傳統SEO操作也是非常重要的項目,在AI搜尋時代的重要性更是不可輕忽,因為好的資訊架構可以讓AI更理解你的網站。
結構優化除了資訊架構之外,還需要規劃網址結構,讓網址可以直接跟組織系統發生關聯,例如 https://www.ec.com.tw/seafood 可以知道這個網址是關於海鮮產品。
[結論]
CLOUDS 這六大項就是AI搜尋與傳統搜尋的操作法寶。
C — 內容優化(Content Optimization)
核心:超乎讀者所需,並具「可引用性(AI-quotable)」。
作法:短段落(每段 2–5 句)、清楚小標(H2/H3)、FAQ/How-to、表格化關鍵資訊;以 7W5H 補齊脈絡。
目標:讓 AI 能快速抽取段落成為權威回答;同時滿足人類可讀性(E-E-A-T)。
L — 連結優化(Link Optimization)
核心:把相關性串起來(站內 × 站外)。
作法:主題群集的內部連結網路、語意明確的錨點文字;適度 聯外連結到權威來源;追求自然且有品質的 外來連結。
目標:強化主題權威與可驗證性,提升被 AI/搜尋引擎採信的機率。
O — 頁面優化(On-page Optimization)
核心:頁面 = 可被理解與擷取的單位;AI 偏好「段落級」最佳化。
作法:語意化 HTML、標題階層、結構化資料(Schema Markup/JSON-LD)、清晰的 meta title/description;視覺層強化可掃讀性。
目標:同時對 傳統 SERP 與 AI 回答擷取 友善。
U — 可用性優化(Usability Optimization)
核心:把「人類 + AI」都當使用者。
作法:行動版優化、清晰導覽與麵包屑、順暢互動;Core Web Vitals 達標: LCP < 2.5s、INP < 200ms、CLS < 0.1。
目標:避免被視為低品質來源或被抓取超時;提升停留與轉換。
D — 可發現性優化(Discoverability Optimization)
核心:先被發現,才有資格被引用。
作法:Sitemap/robots.txt/索引控制(meta robots、X-Robots-Tag)、canonical、hreflang(多語/多地)、資料餵養管道(News/Scholar/資料庫)佈局。
目標:同時爭取 搜尋引擎索引 與 AI RAG 管道 的可見度(如 Bing/Google、Knowledge Graph、News、Scholar 等)。
S — 結構優化(Structure Optimization)
核心:以資訊架構讓機器「看懂整個站」。
作法:清楚層級與 URL 命名、支柱頁(Pillar)× 主題串(Topic Cluster)、系統化內部連結、資料型頁面(可被擷取的欄位與表格)。
目標:建立主題版圖,強化「完整性 × 深度」訊號,利於 AI 整段引用。
除了CLOUDS 六大項目之外,AI搜尋時代還要變化的就是成效指標需要改變,並且要能聰明的使用AI工具,讓工作效率加倍提升。
後續SEO研究院再來針對各項細節實作,再另文探討了。
0 留言