一致性哈希算法及其在分佈式系統中的應用
本文將會從實際應用場景出發,介紹一致性哈希算法(Consistent Hashing)及其在分佈式系統中的應用。首先本文會描述一個在日常開發中經常會遇到的問題場景,借此介紹一致性哈希算法以及這個算法如何解決此問題;接下來會對這個算法進行相對詳細的描述,並討論一些如虛擬節點等與此算法應用相關的話題。
分佈式緩存問題
假設我們有一個網站,最近發現隨著流量增加,服務器壓力越來越大,之前直接讀寫數據庫的方式不太給力了,於是我們想引入Memcached作為緩存機制。現在我們一共有三台機器可以作為Memcached服務器,如下圖所示。
很顯然,最簡單的策略是將每一次Memcached請求隨機發送到一台Memcached服務器,但是這種策略可能會帶來兩個問題:一是同一份數據可能被存在不同的機器上而造成數據冗餘,二是有可能某數據已經被緩存但是訪問卻沒有命中,因為無法保證對相同key的所有訪問都被發送到相同的服務器。因此,隨機策略無論是時間效率還是空間效率都非常不好。
要解決上述問題只需做到如下一點:保證對相同key的訪問會被發送到相同的服務器。很多方法可以實現這一點,最常用的方法是計算哈希。例如對於每次訪問,可以按如下算法計算其哈希值:
h = Hash(key) % 3
其中Hash是一個從字符串到正整數的哈希映射函數。這樣,如果我們將Memcached Server分別編號為0、1、2,那麼就可以根據上式和key計算出服務器編號h,然後去訪問。
這個方法雖然解決了上面提到的兩個問題,但是存在一些其它的問題。如果將上述方法抽象,可以認為通過:
h = Hash(key) % N
這個算式計算每個key的請求應該被發送到哪台服務器,其中N為服務器的台數,並且服務器按照0 – (N-1)編號。
這個算法的問題在於容錯性和擴展性不好。所謂容錯性是指當系統中某一個或幾個服務器變得不可用時,整個系統是否可以正確高效運行;而擴展性是指當加入新的服務器後,整個系統是否可以正確高效運行。
現假設有一台服務器宕機了,那麼為了填補空缺,要將宕機的服務器從編號列表中移除,後面的服務器按順序前移一位並將其編號值減一,此時每個key就要按h = Hash(key) % (N-1)重新計算;同樣,如果新增了一台服務器,雖然原有服務器編號不用改變,但是要按h = Hash(key) % (N+1)重新計算哈希值。因此系統中一旦有服務器變更,大量的key會被重定位到不同的服務器從而造成大量的緩存不命中。而這種情況在分佈式系統中是非常糟糕的。
一個設計良好的分佈式哈希方案應該具有良好的單調性,即服務節點的增減不會造成大量哈希重定位。一致性哈希算法就是這樣一種哈希方案。
一致性哈希算法
算法簡述
一致性哈希算法(Consistent Hashing)最早在論文《Consistent Hashing and Random Trees: Distributed Caching Protocols for Relieving Hot Spots on the World Wide Web》中被提出。簡單來說,一致性哈希將整個哈希值空間組織成一個虛擬的圓環,如假設某哈希函數H的值空間為0 - 232-1(即哈希值是一個32位無符號整形),整個哈希空間環如下:
整個空間按順時針方向組織。0和232-1在零點中方向重合。
下一步將各個服務器使用H進行一個哈希,具體可以選擇服務器的ip或主機名作為關鍵字進行哈希,這樣每台機器就能確定其在哈希環上的位置,這裡假設將上文中三台服務器使用ip地址哈希後在環空間的位置如下:
接下來使用如下算法定位數據訪問到相應服務器:將數據key使用相同的函數H計算出哈希值h,通根據h確定此數據在環上的位置,從此位置沿環順時針“行走”,第一台遇到的服務器就是其應該定位到的服務器。
例如我們有A、B、C、D四個數據對象,經過哈希計算後,在環空間上的位置如下:
根據一致性哈希算法,數據A會被定為到Server 1上,D被定為到Server 3上,而B、C分別被定為到Server 2上。
容錯性與可擴展性分析
下面分析一致性哈希算法的容錯性和可擴展性。現假設Server 3宕機了:
可以看到此時A、C、B不會受到影響,只有D節點被重定位到Server 2。一般的,在一致性哈希算法中,如果一台服務器不可用,則受影響的數據僅僅是此服務器到其環空間中前一台服務器(即順著逆時針方向行走遇到的第一台服務器)之間數據,其它不會受到影響。
下面考慮另外一種情況,如果我們在系統中增加一台服務器Memcached Server 4:
此時A、D、C不受影響,只有B需要重定位到新的Server 4。一般的,在一致性哈希算法中,如果增加一台服務器,則受影響的數據僅僅是新服務器到其環空間中前一台服務器(即順著逆時針方向行走遇到的第一台服務器)之間數據,其它不會受到影響。
綜上所述,一致性哈希算法對於節點的增減都只需重定位環空間中的一小部分數據,具有較好的容錯性和可擴展性。
虛擬節點
一致性哈希算法在服務節點太少時,容易因為節點分部不均勻而造成數據傾斜問題。例如我們的系統中有兩台服務器,其環分佈如下:
此時必然造成大量數據集中到Server 1上,而只有極少量會定位到Server 2上。為瞭解決這種數據傾斜問題,一致性哈希算法引入了虛擬節點機制,即對每一個服務節點計算多個哈希,每個計算結果位置都放置一個此服務節點,稱為虛擬節點。具體做法可以在服務器ip或主機名的後面增加編號來實現。例如上面的情況,我們決定為每台服務器計算三個虛擬節點,於是可以分別計算“Memcached Server 1#1”、“Memcached Server 1#2”、“Memcached Server 1#3”、“Memcached Server 2#1”、“Memcached Server 2#2”、“Memcached Server 2#3”的哈希值,於是形成六個虛擬節點:
同時數據定位算法不變,只是多了一步虛擬節點到實際節點的映射,例如定位到“Memcached Server 1#1”、“Memcached Server 1#2”、“Memcached Server 1#3”三個虛擬節點的數據均定位到Server 1上。這樣就解決了服務節點少時數據傾斜的問題。在實際應用中,通常將虛擬節點數設置為32甚至更大,因此即使很少的服務節點也能做到相對均勻的數據分佈。
總結
目前一致性哈希基本成為了分佈式系統組件的標準配置,例如Memcached的各種客戶端都提供內置的一致性哈希支持。本文只是簡要介紹了這個算法,更深入的內容可以參看論文《Consistent Hashing and Random Trees: Distributed Caching Protocols for Relieving Hot Spots on the World Wide Web》,同時提供一個C語言版本的實現供參考。