上文3招令你SEO優化取得成功,提出SEO優化有3部份,未來我會分3個部份細說。Technical SEO (技術性SEO) 在SEO優化中,有著舉足輕重的重要性。搜尋引擎透過Web Crawler (俗稱「爬蟲」)抓取及索引網站,理解網站結構,頁面結構,再而了解頁面內容,換句話說SEO優化就是由外到內的優化過程,而Technical SEO就是優化「外」的部份,即網站結構及頁面結構,得使「爬蟲」可以順利抓取網站,了解網站,收錄網頁。(另一個說法是減少「蜘蛛」抓取時遇到的障礙)Technical SEOTechnical SEO主要針對技術層面的優化措施,關注的是網站的技術結構、代碼優化、網站速度、安全性和網站架構等因素。經歷過不同的SEO工作洗禮下,總結以下是最常見的Technical SEO項目:1. Google Search Console2. robots.txt3. XML sitemap 網站地圖4. 網站安全性5. 孤兒頁面 Orphan pages6. Hreflang7. Canonical URL 規範化 URL8. Schema markup 結構化資料9. Page speed (頁面速度)10. JavaScript1. Google Search Console· Google Search Console是由Google提供的免費服務,透過提交網站地圖,通知Google有關的網站結構和內容。· 它所針對的是網站在搜尋引擎中的表現。並可以追蹤他們的網站在Google搜尋引擎中的索引狀態、排名、流量和其他相關指標。另外,Google Search Console會指出網站上的錯誤,例如頁面無法訪問、404錯誤等。這些錯誤可能會對網站的可用性和SEO產生負面影響,因此,通過修復這些錯誤,可以改善網站的可訪問性和用戶體驗。· 貼地說法:提交網站地圖,就如發邀請信給Google,請Google進入網站。如果沒有提交網站地圖,Google的Database就沒有你的網站資料吧。2. robots.txt· robots.txt 是一個指示Web Crawlers(爬蟲)抓取網站的文本文件。這個文件就如網站入口的管理員一樣,指示著「爬蟲」如何抓取及索引網站,告訴搜索引擎哪些網頁可以訪問,哪些網頁應該被忽略。· 透過控制「爬蟲」的抓取範圍,限制「爬蟲」訪問頻率,避免重複內容問題非常有用,同時可以減少「爬蟲」對網站伺服器的負擔,從而提高網站的性能和效能,對大型網站十分重要。常見的robots.txt文件中,都有指示「爬蟲」根據指定的XML Sitemap進行抓取,以幫助搜索引擎更有效地索引網站內容。· 如果網站沒有robots.txt,「爬蟲」就沒有進入網站的入口,難以抓取及索引網站,搜尋引擎無法認知網站下,最終就無法在搜尋結果中展現你的網頁。所以SEO工作中的第一步,是需要確認網站的robots.txt是有效的,就是為「爬蟲」打開邀請之門,確保「爬蟲」有入口爬取及索引網站內容。– 貼地說法:robots.txt為「爬蟲」指示了網站的入口,提供了爬取的說明書。3. XML sitemap 網站地圖· XML sitemap 是一個包含網站重要頁面的XML格式文件。它提供了「爬蟲」所需的結構化信息,以幫助搜索引擎更有效地抓取和索引網站的內容,幫助搜索引擎更好地了解網站的架構和內容。· 「爬蟲」透過robots.txt的指引,知悉抓取網站條件後,就會按指示到指定的XML sitemap作抓取。XML sitemap 內的URL是網站內較重要的頁面,所以XML sitemap應不時更新內容,把新增的頁面加進XML sitemap,並把已移除的頁面或沒那麼重要的頁面從XML移走。定期更新XML sitemap可以讓Google不斷更新它database的內容。· 由於「爬蟲」自身也有一些限制,其中一個重要的限制是「爬行預算」(Crawl Budget)。爬行預算是搜索引擎給予一個網站在一段時間內被爬取的配額或資源限制,這個預算決定了搜索引擎對網站進行爬取、索引和更新的頻率和深度。· XML sitemap在SEO的角色十分關鍵,清晰的XML sitemap,能羅列出重要的頁面,確保這些頁面能被資源有限的「爬蟲」索引。若XML sitemap內有著大量已移除的頁面,會浪費「爬蟲」的資源,令其他重要的頁面有可能未能爬取。· 貼地說法:XML sitemap就是為「爬蟲」提供說明書的內容。4. 網站安全性· 網站安全性是指保護網站免受潛在威脅和攻擊的能力。網站安全越來越重要,一方面可以避免被人駭進網站修改內容,另一方面保障客戶的資料安全,尤其是電商網站,或會員制的網站。· 使用了HTTPS協議來加密網站和用戶之間的通信,能防止敏感 (例如個人密碼,信用咭資料等) 信息在傳輸過程中被截取。網站安全設定需要安裝和配置有效的數位證書,使用SSL/TLS協議來確保數據的安全傳輸。· 安全的網站使用HTTPS協議來加密數據傳輸,這不僅保護用戶的敏感信息,還被搜尋引擎視為網站安全性的信號。因此,使用HTTPS可以對SEO有積極的影響,可能提高網站的排名和可見性。5. 孤兒頁面 Orphan pages· 孤兒頁面是指網站中,沒有被其他頁面內部連結到的網頁 (可能是新頁面,也有可能是久未整理的頁面)。換句話說,這些頁面是被孤立的,無法透過網站地圖、網站導覽、內部連結或其他內部網站連結方式訪問。 · 孤兒頁面沒有來自其他頁面的連結,難以被找到,所以「爬蟲」不會抓取及索引這些頁面,可能導致這些頁面的能見度下降,對這些頁面的有機流量受限。如果孤立頁面含有價值的內容,但其他部分沒有連接,頁面的價值就不能有效地呈現出來。· 要解決孤兒頁面問題,可以把網址加入XML sitemap,或者加入內部網站連結,讓「爬蟲」有路徑找到網頁作抓取及索引,進一步理解網站結構,以提升頁面的能見度及排名。· 貼地說法:讓「爬蟲」進入網站後,有路徑找到頁面,令孤兒頁面不再孤兒。案例參考 – TemplateMonster6. Hreflang· Hreflang 是一個 HTML 屬性,用來指定網頁的語言和地區。如果同一頁面有不同語言的多個版本,則可以使用 hreflang 標籤告訴 Google 等搜尋引擎這些變體。這有助於他們向用戶提供正確的版本。· 如果網站是支持多個語言和地區,例如誇國企業Schneider Electrics,利用hreflang可以指定每個語言版本的網頁,從而改善用戶體驗和搜索引擎的理解。當使用者透過搜索引擎搜尋網站時,hreflang可以確保使用者看到適合他們語言的版本。這有助於提高用戶滿意度和提供更具個性化的內容。· SEO效果:使用hreflang屬性可以改善國際化和多語言網站的SEO效果。搜索引擎能夠更好地理解您的網站結構和語言版本,並將相應的版本呈現給相應的目標受眾。除此之外,使用hreflang可避免重複內容:如果您在不同語言版本的網頁上提供相似或相同的內容,使用hreflang可以幫助搜索引擎識別這些頁面之間的關聯性,避免將其視為重複內容。7. Canonical URL (規範化 URL)· Canonical URL 是指在網頁中指定的主要、首選或規範的 URL 版本。· Canonical URL 是用於解決存在多個內容相近或重複內容的頁面問題。如果網站內存在多個相容相近的頁面,搜尋引擎可能無法確定應該「索引」哪個頁面,這可能導致網頁的排名和搜尋結果出現混亂,這情況在SEO稱為cannibalization。通過使用Canonical的指示,可以指示搜尋引擎將內容相近指定的頁面索引到特定的頁面上。· 同時,Canonical URL 可以幫助避免由於重複內容而導致的搜尋引擎懲罰。當搜尋引擎發現重複或相似內容時,它們可能會將其視為低質量或垃圾內容,並對網頁的排名產生負面影響。· 適當地使用Canonical URL 設定,能有效地指示搜尋引擎索引指定頁面,提升搜尋排名及曝光度,亦避免被搜尋引擎懲罰。8. Schema markup (結構化資料)· Schema markup 是一種結構化資料標記語言,這項設計是協助搜尋引擎理解網站內容的系統,將頁面資訊以標準化的格式進行分類。· Schema markup (結構化資料) ,可以想像成一套已經統一格式的表格,按照不同的網頁類型,有相對應的格式,只需要按指定的欄位可以填入資料,便可以完成。Schema markup的常見「表格」類型包括文章、產品、產品評價等等。· Schema markup 幫助搜尋引擎更有效地抓取、理解頁面內容,利用這些結構化資料來增強搜索結果的顯示,並提供更豐富的資訊,顯示特殊的搜索結果功能,例如:知識、價錢、評分等等。9. Page speed (頁面速度)· Page Speed 是指網站載入和顯示內容所需的時間。它是衡量網站性能和使用者體驗的關鍵指標之一。頁面速度對使用者體驗無比重要。當網站載入速度快時,用戶得有可能留在網站上並進行互動。相反,如果頁面速度過慢,用戶就會沒有耐性去等待並離開網站,這可能導致高跳出率和低頁面停留時間。· 搜索引擎早已將頁面速度納入其排名算法中。較快的網站通常在搜索結果中排名較高,而較慢的網站則可能排名較低。頁面速度對於搜索引擎優化至關重要,可以直接影響網站的可見性和流量。· 頁面速度緩慢的常見原因,大多是因為相片太大,或過多JavaScript。所以最把相片壓縮去細一點,或轉成其他format,及移除不需使用的JavaScript,就能有效地改善頁面速度。10. JavaScript· JavaScript 是一種程式語言,是最常使用的腳本語言(Scripting language)和標記語言(Markup Language)。· JavaScript 也是網頁內容組成的重要元素之一。它用於網頁的事件處理、表單驗證、內容動態更新等,使得網頁更加互動和生動。動態修改網頁內的元素來製作動畫等功能。· 儘管JavaScript ,但JavaScript 這種程式語言並不是SEO friendly,有可能令搜尋引擎可能無法正確抓取和索引,大量的JavaScript更有機會耗賮「爬行預算」(Crawl Budget),令「爬蟲」未能完全抓取及索引網站,影響搜尋引擎對網站的理解,最終使網站排名不佳並降低網站的可見度。· 移除不適用或不需使用的JavaScript,減少浪費「爬行預算」,能有效改善網站的排名及可能性。Technical SEO (技術性SEO),目的是優化網站結構,讓Google徹底理解你的網頁。透過各種技術性的操作,減少Google的「爬蟲」抓取時遇到的障礙,令Google爬取網頁更順利。