你真的了解搜索引擎的使用方式嗎?

你真的了解搜索引擎的使用方式嗎?

目錄

搜尋引擎排名為何重要?

 

於1997年,搜尋引擎公司意識到,網站管理員們會不餘遺力地讓自己的網站擁有較好的搜尋引擎排名,甚至於會將不相關的關鍵字塞在網頁中,用來欺騙搜尋引擎以得到較好的搜尋排名。早期搜尋引擎, 譬如Altavista與INFOSEEK,就開始調整搜尋演算法以避免受到人為的操弄。於2005年召開的AirWeb年會,就希望把實務與研究者聚集起來,共同討論關於搜尋引擎優化等相關議題。

 

 

搜尋引擎排名優化和搜尋引擎之間關係?

 

如果過度地操作搜尋引擎優化,可能會導致操作的網站被搜尋引擎封鎖。在2005年,華爾街日報就曾經報導Traffic Power公司,據說使用高風險的方式,並且沒有讓客戶了解這些操作的風險。Wired網站則報導了這家公司對部落客提起告訴,只因為提及該公司被取締的事件。Google 的克特斯 (Matt Cutts) 稍後確認Google 確實取締了Traffic Power以其他們的客戶群。

 

某些搜尋引擎對搜尋引擎優化產業提供了援助,而且是常常是優化會議和研討會的贊助商和來訪貴賓。所有主要搜尋引擎都提供資訊/指南以協助站點優化: Google、Yahoo , 和MSN。Google提供了Sitemaps 程式幫助網站員學習如果Google有任何問題檢索他們的網站時該如何做,並且提供Google流量與你的網站關係間無價的豐富資料。雅虎的Ambassador Program 與Google的Advertising Professionals 提供專家級的認證。

 

 

搜尋引擎推薦操作?

 

新站點不需要”提交”到搜尋引擎才能登記上市。一個來自於已建立好的、其他站點的簡單鏈結就會讓搜尋引擎拜訪新站點,並且開始『爬』過該站內容。它可能得花幾天甚或幾週從這樣一個已建立站點取得連結,並使所有主要搜尋引擎開始拜訪並索引新站點。社群媒體及新聞發佈網站是較容易吸引搜尋引擎建立站點的方法。

 

一旦搜尋引擎發現了新站點,它一般將拜訪和開始索引該站,直到所有標準的 <a href> 超連結被鏈結的頁索引到為止。只能透過Flash或JavaScript拜訪的鏈結可能不會被蜘蛛機器人找到。

 

當搜尋引擎的蜘蛛機器人爬過一個站點時會取決相當數量的不同因子,並且該站的許多頁可能不會被索引到除非它們網頁級別、連結、或流量增加到一個程度。從站點的根目錄到該頁的距離,以及其它比重考量,也許也是決定是否該頁得到檢索的因素。Cho et al.(Cho et al. 1998) 描述了哪些頁會被拜訪、哪些會收入搜尋引擎索引的決定標準。

 

 

搜索引擎排名結論:

 

網站員可透過在網域根目錄裡標準robots.txt檔案指示蜘蛛機器人不索引某些檔案或目錄。標準的實現要求是搜尋引擎在拜訪這個網域時參考這個檔案,雖然搜尋引擎的蜘蛛機器人當它拜訪某站點網頁時將保留這個檔案的快取拷貝,並且更新速度沒像網站員那麼快。網站發展人員可能使用這個特性防止某些頁,譬如購物車或其它動態、特定使用者的內容出現在搜尋引擎結果中,並且防止機器人進入死循環和其它機器人陷阱。

 

對於某些有償提交的查尋引擎(像雅虎),支付象徵性費用提交也許會節省一些時間,雖然雅虎有償提交方案不保證提交人/公司包括在他們的查尋結果中。中文的搜狐和新浪ask等需要支付一定費用,但免費的非商業網站可以提供,當然搜尋引擎方並不保證一定收錄相應的網站。