最新消息  
最新消息 > 最新消息
(發佈時間:2020-06-04 16:01:48)
早期搜尋引擎

網站管理員以及網路內容提供者在90年代中期開始使用搜尋引擎來最佳化網站。此時第一代搜尋引擎開始對網際網路分門別類。一開始,所有網站管理員能做的事只有提交所屬網站到各家搜尋引擎。這些引擎執行一些蜘蛛機器人(spider)──t他們會在網頁程式中找到連至其他網頁的超連結──並且儲存所找到的資料。過程中同時包含了將網頁下載並儲存至搜尋引擎擁有者的伺服器中,這時有另外一個軟體稱為Indexer來擷取頁面中不同的資訊——頁面中的文字、文字的位置、文字的重要性以及頁面所包含的任何連結,之後將頁面置入清單中等待過些時日後,再來擷取一次。隨著線上檔案數目日積月累,越來越多網站員意識到自然搜尋 (有機搜尋) 條目的重要性,所以較普及的搜尋引擎公司開始整理他們的列表,以顯示最恰當適合的網頁為優先。搜尋引擎與網站管理員的戰爭就此開始,並延續至今。

一開始搜尋引擎是被網站管理員本身牽著走的。早期版本的搜尋演算法有賴於網站員提供資訊,如關鍵字基本定義標籤meta tag)。當某些網站員開始濫用標籤,造成該網頁排名與連結無關時,搜尋引擎開始捨棄標籤並發展更複雜的排名演算法。這些演算法將網頁的內容特徵作為分析目標,由於數繁不及備載,僅列舉數個分析目標如下:

  • 在標題簽裡的文字,如 <h1>引擎</h1>
  • 域名,如 wikipedia.org
  • 統一資源定位符(URL)下屬的目錄與檔名,如 http://zh.wikipedia.org/wiki/Seo
  • 關鍵字密度
  • 關鍵字接近度,如 '軟盤、軟碟' '硬盤、硬碟'
  • 圖形連結的 Alt 屬性,如 <img src=".../powerby_mediawiki_88x31.png" alt="MediaWiki" />

但是經過多年的搜尋引擎演算法的調整,現在較重要的影響標籤為:

  • <title>
  • <meta>
  • <h1>
  • <img>中的 alt屬性

由於這些都還在網站人員的眼皮下打滾,搜尋引擎陸陸續續碰到諸多濫用與操縱排名等難題。為了要提供較好的結果給使用者,搜尋引擎必須被調整到能夠產生真正有價值的搜尋結果,而非某些不道德的網站站主產生的、只有塞滿關鍵字的無用網頁。由此,新種類的搜尋引擎應運而生