網站管理員以及網路內容提供者在90年代中期開始使用搜尋引擎來優化網站。此時第一代搜尋引擎開始對網際網路分門別類。一開始,所有網站員得做的事只有提交所屬網站到各家搜尋引擎。這些引擎跑一些蜘蛛機器人(spider)──擷取於網頁程式中找到連至其他網頁的連結──並且儲存所找到的資料。過程中同時包含了將網頁下載並儲存至搜尋引擎擁有者的伺服器中,這時有另外一個軟體稱為Indexer來擷取頁面中不同的資訊——頁面中的文字、文字的位置、文字的重要性以及頁面所包含的任何連結,之後將頁面置入清單中等待過些時日後,再來擷取一次。隨著線上文件數目日積月累,越來越多網站員意識到基本搜尋 (organic search,亦翻為隨機搜尋[1]) 條目的重要性,所以較普及的搜尋引擎公司開始整理他們的列表,以顯示根據最洽當適合的網頁為優先。搜尋引擎與網站員的戰爭就此開始,並延續至今。

一開始搜尋引擎是被網站管理員本身牽著走的。早期版本的搜尋演算法有賴於網站員提供資訊,如關鍵字基本定義標籤meta tag)。當某些網站員開始濫用標籤,造成該網頁排名與連結無關時,搜尋引擎開始捨棄標籤並發展更複雜的排名演算法。由於數繁不及備載,僅列舉數個分析目標如下:

  • 在標題簽裡的文字,如 <h1>引擎</h1>
  • 域名,如 wikipedia.org
  • 統一資源定位符下屬的目錄與檔名,如 http://zh.wikipedia.org/wiki/Seo
  • 關鍵字密度
  • 關鍵字接近度,如 '軟盤、軟碟' '硬盤、硬碟'
  • 圖形連結的 Alt 屬性,如 <img src=".../powerby_mediawiki_88x31.png" alt="MediaWiki" />

由於這些都還在網站人員的眼皮下打滾,搜尋引擎陸陸續續碰到諸多濫用與操縱排名等難題。為了要提供較好的結果給使用者,搜尋引擎必須調適到讓他們的搜索結果表現出最適當的結果,而非某些不道德的網路員產生的、只有塞滿關鍵字的無用網頁。由此,新種類的搜尋引擎應運而生。

創作者介紹

SEO搜尋行銷部落格

seoservices 發表在 痞客邦 PIXNET 留言(0) 人氣()