機器學習入門之聚類算法

小菜羊 2021-08-15 21:13:40 阅读数:704

本文一共[544]字,预计阅读时长:1分钟~
算法

這是我參與8月更文挑戰的第11天,活動詳情查看:8月更文挑戰

本文為吳恩達機器學習課程的筆記系列第五篇,主要介紹幾個聚類算法,包括經典的K-Means算法,以及其拓展 二分K-Means算法和另一個常用的DBSCAN算法

聚類(Clustering)

聚類(Clustering)是將數據集劃分為若幹相似對象組成的多個組(group)或簇(cluster)的過程, 使得同一組中對象間的相似度最大化, 不同組中對象間的相似度最小化 。屬於無監督問題。

K-Means算法

K K 就是簇的數量。這個數字是人為選擇的。K-Means算法是基於質心劃分的。

算法流程:

  • 首先隨機選擇 K K 個點作為初始聚類中心。
  • 對數據集的每個數據,評估其到 K K 個中心點的距離,將其與距離最近的中心點關聯起來。
  • 重新計算每個簇中的平均值,更新簇中心的比特置

距離的判斷:歐幾裏得距離或餘弦相似度

算法描述:

  • μ ( i ) \mu^{(i)} 錶示第 i i 個聚類中心, x ( i ) x^{(i)} 錶示第 i i 個樣本, m m 錶示樣本數
R e p e a t { f o r i = 1 t o m : c ( i ) : = 與樣本 x ( i ) 最近的簇中心的索引 f o r k = 1 t o K : μ ( k ) : = k 個簇的平均比特置 } \begin{aligned} &Repeat \{ \\ & \;\; for\; i =\; 1\; to\; m:\\ &\qquad c^{(i)} := 與樣本x^{(i)}最近的簇中心的索引 \\ &\;\;for\; k =\; 1\; to\; K: \\ &\qquad \mu^{(k)}:= 第k個簇的平均比特置 \\ &\} \end{aligned}

算法優化

K-Means同樣也要最小化聚類代價,而最小化的就是所有的數據點與其所關聯的聚類中心點之間的距離之和,引入K-Means的代價函數:

J ( c ( 1 ) , . . . , c ( m ) , μ ( 1 ) , . . . , μ ( K ) ) = 1 m i = 1 m x ( i ) μ c ( i ) 2 J(c^{(1)},...,c^{(m)},\mu^{(1)},...,\mu^{(K)})=\dfrac{1}{m}\sum\limits_{i=1}^{m}||x^{(i)}-\mu^{c^{(i)}}||^2 J J 也稱畸變函數(Distortion Function)

實際上,在第一個for循環裏,也就是給樣本分配簇中心時,就是在减小 c ( i ) c^{(i)} 引起的代價;在第二個for循環裏,則是在减小 μ ( k ) \mu^{(k)} 引起的代價。

確定k值

因為不同的初始化很有可能會引起不同的聚類結果,所以應用聚類算法時往往進行多次隨機初始化,計算相應代價函數,應用 肘部法則(Elbow Method),選擇較為明顯的“肘關節”部分對應的 k 值作為聚類數。如下圖:

在這裏插入圖片描述

下面補充幾個其它常見的聚類算法:

二分K-Means算法

二分 K-Means(bisecting kmeans)算法,相較於常規的 K-Means,二分 K-Means 不急於一來就隨機 K個聚類中心,而是首先把所有點歸為一個簇,然後將該簇一分為二。計算各個所得簇的代價函數(即誤差),選擇誤差最大的簇再進行劃分(即最大程度地减少誤差),重複該過程直至達到期望的簇數目。

誤差采用 SSE(Sum of Squared Error)即誤差平方和。SSE越小,簇中的對象越集中 。

該算法為貪心算法,計算量不小。

DBSCAN算法

DBSCAN算法是基於密度的算法,該算法將具有足够高密度的區域劃分為簇,並在具有噪聲的空間數據庫中發現任意形狀的簇,它將簇定義為密度相連的點的最大的集合。

基本概念:

  • E p s Eps 鄰域:給定對象半徑 E p s Eps 內的鄰域稱為該對象的 E p s Eps 鄰域。
  • M i n P t s MinPts :給定鄰域包含的點的最小數目,用以决定點 p p 是簇的核心部分還是邊界點或噪聲。
  • 核心對象:如果對象的 E p s Eps 鄰域包含至少 M i n P t s MinPts 個的對象,則稱該對象為核心對象。
  • 邊界點:邊界點不是核心點,但落在某個核心點的鄰域內。稠密區域邊緣上的點。
  • 噪音點:既不是核心點,也不是邊界點的任何點。 稀疏區域中的點。
  • 直接密度可達: 如果 p p q q E p s Eps 鄰域內, 而 q q 是一個核心對象, 則稱對象 p p 從對象 q q 出發時是直接密度可達的 (directly densityreachable)。
  • 密度可達: 如果存在一個對象鏈 p 1 , p 2 , . . . , p n , p 1 = q , p n = p p_1,p_2,...,p_n,p_1=q,p_n=p , 對於 p i D ( 1 i n ) p_i\in D(1\le i\le n) p i + 1 p_{i+1} p i p_i 從關於 E p s Eps M i n P t s MinPts 直接密度可達的,則 對 象 p p 是 從對象 q q 關於 E p s Eps M i n P t s MinPts 密 度 可 達 的 (densityreachable)。
  • 密度相連: 如果存在對象 O D O\in D , 使對象 p p q q 都是從 O O 關於 E p s Eps M i n P t s MinPts 密度可達的, 那麼對象 p p q q 是關於 E p s Eps M i n P t s MinPts 密度相連的(density-connected)。
  • 基於密度的簇:是基於密度可達性的最大的密度相連的對象的集合 。
  • 噪聲:不包含在任何簇中的對象。

DBSCAN算法, 就是檢查數據集中每個點的 E p s Eps 鄰域來搜索簇。

算法流程

( 1 ) 首先將數據集 D 中的所有對象標記為未處理狀態 ( 2 ) f o r 數據集 D 中每個對象 p d o ( 3 ) i f p 已經歸入某個簇或標記為噪聲 t h e n ( 4 ) c o n t i n u e ; ( 5 ) e l s e ( 6 ) 檢查對象 p E p s 鄰域 E ( p ) ; ( 7 ) i f E ( p ) 包含的對象數小於 M i n P t s t h e n ( 8 ) 標記對象 p 為邊界點或噪聲點; ( 9 ) e l s e ( 10 ) 標記對象 p 為核心點,並建立新簇 C ( 11 ) f o r E ( p ) 中所有尚未被處理的對象 q d o ( 12 ) 檢查其 E p s 鄰域 E ( p ) ,若 E ( p ) 包含至少 M i n P t s 個對象,則將 E ( p ) 中未歸入任何一個簇的對象加入 C \begin{aligned} &(1) \text{首先將數據集}D中的所有對象標記為未處理狀態 \\ &(2) for\;數據集D中每個對象p \;do \\ &(3) \quad if \;p已經歸入某個簇或標記為噪聲\;then\\ &(4) \qquad continue;\\ &(5) \quad else\\ &(6) \qquad 檢查對象p的Eps鄰域 E(p); \\ &(7) \qquad \quad if \;E(p)包含的對象數小於MinPts \;then \\ &(8) \qquad \qquad 標記對象p為邊界點或噪聲點;\\ &(9) \qquad \quad else\\ &(10) \qquad \qquad 標記對象p為核心點,並建立新簇C;\\ &(11) \qquad \qquad for\; E(p)中所有尚未被處理的對象q\; do\\ &(12) \qquad \qquad \quad 檢查其Eps鄰域E(p),若E(p)包含至少MinPts個對象,則將E(p) 中未歸入任何一個簇的對象加入C \end{aligned}

算法優劣

優勢:

  • 不需要指定簇個數
  • 擅長找到離群點(檢測任務)
  • 可以發現任意形狀的簇
  • 只需兩個參數

劣勢:

  • 參數難以選擇(參數對結果的影響非常大)
  • 高維數據有些困難(可以做降維)
版权声明:本文为[小菜羊]所创,转载请带上原文链接,感谢。 https://gsmany.com/2021/08/20210815211248083v.html