AI人工智能 最常見的機器學習算法

2020-10-14 09:22 更新

在本節(jié)中,我們將學習最常見的機器學習算法。 算法如下所述 -

線性回歸 它是統(tǒng)計和機器學習中最著名的算法之一。

基本概念 - 主要是線性回歸是一個線性模型,假設(shè)輸入變量 x 和單個輸出變量 y 之間的線性關(guān)系。 換句話說,y可以由輸入變量 x 的線性組合來計算。 變量之間的關(guān)系可以通過擬合最佳線來確定。

線性回歸的類型

線性回歸有以下兩種類型 -

  • 簡單線性回歸 - 如果線性回歸算法只有一個獨立變量,則稱為簡單線性回歸。
  • 多元線性回歸 - 如果線性回歸算法具有多個獨立變量,則稱其為多元線性回歸。

線性回歸主要用于基于連續(xù)變量估計實際值。 例如,可以通過線性回歸來估計一天內(nèi)基于實際價值的商店總銷售額。

Logistic 回歸 它是一種分類算法,也稱為 logit 回歸。

主要邏輯回歸是一種分類算法,用于根據(jù)給定的一組自變量來估計離散值,如 01,真或假,是或否。 基本上,它預(yù)測的概率因此它的輸出在 01 之間。

決策樹 決策樹是一種監(jiān)督學習算法,主要用于分類問題。

基本上它是一個基于自變量表示為遞歸分區(qū)的分類器。 決策樹具有形成根樹的節(jié)點。 有根樹是一個帶有稱為“根”節(jié)點的定向樹。 Root 沒有任何傳入邊緣,所有其他節(jié)點都有一個傳入邊緣。 這些節(jié)點被稱為樹葉或決策節(jié)點。 例如,考慮下面的決策樹來判斷一個人是否適合。

支持向量機(SVM)

它用于分類和回歸問題。 但主要用于分類問題。 SVM 的主要概念是將每個數(shù)據(jù)項繪制為n維空間中的一個點,每個特征的值是特定坐標的值。 這里 n 將是功能。 以下是了解 SVM 概念的簡單圖形表示 -

img

在上圖中,有兩個特征,因此首先需要在二維空間中繪制這兩個變量,其中每個點都有兩個坐標,稱為支持向量。 該行將數(shù)據(jù)分成兩個不同的分類組。 這條線將是分類器。

樸素貝葉斯 這也是一種分類技術(shù)。 這種分類技術(shù)背后的邏輯是使用貝葉斯定理來構(gòu)建分類器。 假設(shè)是預(yù)測變量是獨立的。 簡而言之,它假設(shè)類中某個特征的存在與任何其他特征的存在無關(guān)。 以下是貝葉斯定理的等式 -

img

樸素貝葉斯模型易于構(gòu)建,特別適用于大型數(shù)據(jù)集。

K-最近鄰居 (KNN)

它用于問題的分類和回歸。 它被廣泛用于解決分類問題。 該算法的主要概念是它用來存儲所有可用的案例,并通過其k個鄰居的多數(shù)選票來分類新案例。 然后將該情況分配給通過距離函數(shù)測量的K近鄰中最常見的類。 距離函數(shù)可以是歐幾里得,明可夫斯基和海明距離。 考慮以下使用 KNN -

  • 計算上 KNN 比用于分類問題的其他算法昂貴。
  • 變量的規(guī)范化需要其他更高的范圍變量可以偏差。
  • 在 KNN 中,需要在噪音消除等預(yù)處理階段進行工作。

K 均值聚類

顧名思義,它用于解決聚類問題。 它基本上是一種無監(jiān)督學習。 K-Means 聚類算法的主要邏輯是通過許多聚類對數(shù)據(jù)集進行分類。 按照這些步驟通過 K-means 形成聚類 -

  • K-means 為每個簇選取 k 個點,稱為質(zhì)心。
  • 每個數(shù)據(jù)點形成具有最接近質(zhì)心的群集,即k個群集。
  • 它將根據(jù)現(xiàn)有集群成員查找每個集群的質(zhì)心。
  • 需要重復這些步驟直到收斂。

隨機森林 它是一個監(jiān)督分類算法。 隨機森林算法的優(yōu)點是它可以用于分類和回歸兩類問題。 基本上它是決策樹的集合(即森林),或者可以說決策樹的集合。隨機森林的基本概念是每棵樹給出一個分類,并且森林從它們中選擇最好的分類。以下是隨機森林算法的優(yōu)點 -

  • 隨機森林分類器可用于分類和回歸任務(wù)。
  • 可以處理缺失的值。
  • 即使在森林中有更多的樹,它也不會過度適合模型。
以上內(nèi)容是否對您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號
微信公眾號

編程獅公眾號