我們在看一些機器學(xué)習(xí)、人工智能、數(shù)據(jù)倉庫方面的資料時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“深度學(xué)習(xí)算法”、“非監(jiān)督學(xué)習(xí)”、“大模型”、“邏輯模型”等高頻詞匯。這些詞語有時會在同一篇文章中交叉出現(xiàn),看似描述的是同一件事情,但所要表達的意思似乎又不盡相同,初學(xué)者很容易就被繞暈了。
如果僅僅作為宣傳報道或日常交流,并沒有太大問題,但若作為專業(yè)人士,則要把概念的內(nèi)涵和上下文搞搞清楚,否則很容易鬧出笑話。比如把大模型說成算法,把決策樹算法說成模型,把CNN說成是算法。
我這里先給出“模型 、算法、模型結(jié)構(gòu)、數(shù)據(jù)模型、訓(xùn)練”5個概念的精簡定義:
模型:現(xiàn)實世界的數(shù)學(xué)表示或模擬,它是指一種結(jié)果。
算法:執(zhí)行特定任務(wù)的明確步驟序列。
模型結(jié)構(gòu):模型的特定框架或架構(gòu)。
數(shù)據(jù)模型:描述數(shù)據(jù)對象、其關(guān)系及與其相關(guān)的操作的抽象結(jié)構(gòu)。
訓(xùn)練:使用數(shù)據(jù)調(diào)整模型參數(shù)以改進模型性能的過程。
但即使你看懂了這五個概念的簡明定義,也不代表你真正的理解了內(nèi)涵,這里我先問你一個問題:“支持向量機到底是指什么?模型、算法亦或其它?”
你是不是一臉懵逼,好的,我就詳細(xì)展開講講,答案會在最后揭曉。
一、算法
1、算法定義
算法的定義有許多版本,但其核心思想是一致的。算法可以被定義為:一個明確的、有序的、有限的步驟集合,用于解決一個特定的問題或執(zhí)行一個特定的任務(wù)。這個定義是非常通用的,適用于從最簡單的日常生活任務(wù)(例如烹飪食譜)到復(fù)雜的計算機科學(xué)問題的算法。
讓我們詳細(xì)分析這個定義:
(1)明確 (Clear):算法的每一步都應(yīng)該是清晰、無歧義的,這樣任何人都可以理解并按照算法的指示進行。
(2)有序 (Ordered):步驟的順序是固定的,這確保了每次運行算法時,它都會產(chǎn)生相同的結(jié)果(如果輸入和初始條件保持不變)。、
(3)有限 (Finite):算法的執(zhí)行不能無限期地進行;經(jīng)過一定數(shù)量的步驟后,它應(yīng)該結(jié)束。
(4)解決問題或執(zhí)行任務(wù):算法的目的是解決某個特定的問題或執(zhí)行某個特定的任務(wù),無論是計算數(shù)字、排序列表,還是其他更復(fù)雜的任務(wù)。
事實上,我們可以把任何使計算機能夠按照我們預(yù)定目標(biāo)運行的方法稱為“算法”,不僅僅包括上面的舉例,在計算機領(lǐng)域常見的“冒泡排序”等基礎(chǔ)算法都可以算作“算法”的范疇,以下是冒泡算法的步驟流程:

2、機器學(xué)習(xí)算法定義
在機器學(xué)習(xí)和人工智能領(lǐng)域,"算法"這一詞語通常具有特定的含義和上下文。在這些領(lǐng)域,算法通常指的是:一種通過數(shù)據(jù)或經(jīng)驗自動改進性能或逐漸適應(yīng)某一任務(wù)的方法。這個算法定義相對于傳統(tǒng)算法的特殊之處在于"學(xué)習(xí)"和"適應(yīng)"。讓我們詳細(xì)分析這個定義:
(1)通過數(shù)據(jù)或經(jīng)驗:機器學(xué)習(xí)算法通常需要數(shù)據(jù)集來進行訓(xùn)練。這些數(shù)據(jù)允許算法識別模式、做出預(yù)測或完成其他任務(wù)。
(2)自動改進性能:隨著時間的推移和更多的數(shù)據(jù)輸入,機器學(xué)習(xí)算法旨在提高其任務(wù)的完成質(zhì)量,無論是分類準(zhǔn)確率、預(yù)測精度還是其他度量標(biāo)準(zhǔn)。
(3)逐漸適應(yīng)某一任務(wù):這一點突出了機器學(xué)習(xí)算法的"學(xué)習(xí)"能力,即它們隨著時間的推移會變得更加擅長于特定的任務(wù)。
在機器學(xué)習(xí)和AI的上下文中,算法可能包括決策樹算法、神經(jīng)網(wǎng)絡(luò)算法、遺傳算法等。每種算法都有其特定的學(xué)習(xí)方法和適用的任務(wù)類型。下面示例了決策樹ID3算法的實現(xiàn)步驟:

為了更快更好地實現(xiàn)自己的算法,很多時候,人們喜歡把已經(jīng)實現(xiàn)的、效果良好的算法做一些封裝,這樣,下次編寫算法的時候就可以直接拿來用了。我們常用的TensorFlow、PyTorch、MindSpore都是。
現(xiàn)在大模型中很熱的Transformer 可以被認(rèn)為是一種算法,因為Transformer 描述了如何執(zhí)行自注意力計算、如何結(jié)合輸入數(shù)據(jù)、如何通過神經(jīng)網(wǎng)絡(luò)層傳遞數(shù)據(jù)等等,這個意義上的 "算法" 是描述模型在前向傳播和反向傳播期間所采取的計算步驟。
二、模型
1、模型定義
在更廣泛、跨學(xué)科的背景下,模型可以被定義為:對現(xiàn)實世界某一部分的簡化和抽象表示,用于模擬、描述、預(yù)測或理解該部分的行為或現(xiàn)象。這個定義的關(guān)鍵點包括:
(1)簡化和抽象:由于完全模擬現(xiàn)實是不可能的或不切實際的,模型是對現(xiàn)實的簡化。它只包括對特定目的有關(guān)的部分,并忽略了不相關(guān)或次要的細(xì)節(jié)。
(2)表示現(xiàn)實世界的某一部分:這可以是物理系統(tǒng)、經(jīng)濟過程、生物實體、或任何其他可以觀察和描述的事物。
(3)模擬、描述、預(yù)測或理解:模型的目的可以多種多樣。一些模型用于模擬真實世界的行為(如飛行模擬器),其他模型可能用于預(yù)測(如氣象模型),還有一些模型用于理論研究和理解基本原理。
下面是蘇27飛機模型:

2、數(shù)據(jù)模型定義
數(shù)據(jù)模型和一般意義上的模型都是對現(xiàn)實世界事物的簡化和抽象表示,但數(shù)據(jù)模型體現(xiàn)的是現(xiàn)實世界或業(yè)務(wù)邏輯在數(shù)據(jù)層面的投影,是將數(shù)據(jù)元素以標(biāo)準(zhǔn)化的模式組織起來,用來模擬現(xiàn)實世界的信息框架和藍圖。比如通過抽象,數(shù)據(jù)模型可以為世界的系統(tǒng)交互提供一個更易于理解和操作的視圖,可以專注于對特定任務(wù)或目標(biāo)至關(guān)重要的實體和關(guān)系,從而忽略不相關(guān)或不重要的細(xì)節(jié)。

更具體的說,數(shù)據(jù)模型是對數(shù)據(jù)、數(shù)據(jù)關(guān)系、數(shù)據(jù)語義和數(shù)據(jù)約束的抽象描述和組織。它為數(shù)據(jù)的結(jié)構(gòu)化提供了一個框架,并確定了數(shù)據(jù)如何存儲、組織和處理。數(shù)據(jù)模型可以幫助確保數(shù)據(jù)的完整性、準(zhǔn)確性和可用性。數(shù)據(jù)模型可以分為不同的級別或類型,包括概念數(shù)據(jù)模型、概念邏輯模型及物理數(shù)據(jù)模型。下面是反映運營商業(yè)務(wù)的概念模型。

3、機器學(xué)習(xí)模型定義
機器學(xué)習(xí)模型也是對某種現(xiàn)象或數(shù)據(jù)的描述和抽象,與一般的基于某種理論、原則或經(jīng)驗建立的模型不同,機器學(xué)習(xí)模型通過利用數(shù)據(jù)進行訓(xùn)練得到某種數(shù)學(xué)結(jié)構(gòu),它旨在捕捉和代表數(shù)據(jù)間的模式或關(guān)系,以便對新的、未見過的數(shù)據(jù)進行預(yù)測或決策,它的關(guān)鍵點在于:
(1)通過數(shù)據(jù)訓(xùn)練得到:在機器學(xué)習(xí)中,模型通常不是手工創(chuàng)建或編程完成特定任務(wù)的,而是使用數(shù)據(jù)和特定的學(xué)習(xí)算法自動"學(xué)習(xí)"或調(diào)整其參數(shù)。
(2)數(shù)學(xué)結(jié)構(gòu):模型在其核心是數(shù)學(xué)的,無論是線性回歸中的線性方程,神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏差,還是決策樹中的節(jié)點決策。
(3)捕捉和代表數(shù)據(jù)間的模式或關(guān)系:模型的主要任務(wù)是理解數(shù)據(jù)中的潛在模式,并能夠基于這些模式做出決策或預(yù)測。
(4)對新的、未見過的數(shù)據(jù)進行預(yù)測或決策:一個好的機器學(xué)習(xí)模型不僅可以很好地處理其在訓(xùn)練期間看到的數(shù)據(jù),而且可以推廣到其在訓(xùn)練期間未見過的新數(shù)據(jù)。
邏輯回歸模型的一個示例:
邏輯回歸模型通常是通過一組特征權(quán)重來定義的。它在某些軟件或庫中可能會保存為特定格式的文件,例如在Python的scikit-learn中,可以使用joblib庫來保存模型。在更廣泛的范圍內(nèi),邏輯回歸模型可以簡單地表示為一個權(quán)重向量。假設(shè)我們有一個模型,用于根據(jù)兩個特征(例如年齡和薪水)來預(yù)測一個人是否會購買某產(chǎn)品。我們的模型文件內(nèi)容可能有以下結(jié)構(gòu):
Model: Logistic Regression
w1: 0.05
w2: -0.03
b: 2
w1對應(yīng)年齡的權(quán)重,w2對應(yīng)薪水的權(quán)重,b代表偏置,通過這些參數(shù)就可以基于輸入的數(shù)據(jù)進行預(yù)測了。但在真實環(huán)境中,這個文件會包含更多的元數(shù)據(jù)和附加信息,并且通常會以二進制或特定格式保存,以方便快速加載和使用。
決策樹模型的一個示例:
下面示例了一個鳶尾花數(shù)據(jù)集上訓(xùn)練的決策樹模型,這個模型以二進制文件的形式存儲,我將它轉(zhuǎn)化成了文本描述,如下示例:

可以看到,決策樹首先查看"petal width (cm)"特征。如果其值小于或等于0.80,則該樣本屬于類0。如果大于0.80,它將進一步檢查該特征與其他特征的值來決定樣本的類別。
三、模型結(jié)構(gòu)
模型結(jié)構(gòu),通常在機器學(xué)習(xí)和深度學(xué)習(xí)的上下文中提及,指的是模型的設(shè)計或框架,它定義了模型的核心組件以及它們是如何相互連接的。模型結(jié)構(gòu)包括模型的各個層、節(jié)點、權(quán)重、連接等元素,以及它們的布局和組織。
以下是對模型結(jié)構(gòu)的一些進一步解釋:
1、層的定義:例如,在神經(jīng)網(wǎng)絡(luò)中,模型結(jié)構(gòu)將定義有多少層、每層有多少節(jié)點。對于卷積神經(jīng)網(wǎng)絡(luò),模型結(jié)構(gòu)還會定義卷積層、池化層、全連接層等的數(shù)量和順序。
2、連接方式:模型結(jié)構(gòu)定義了如何連接各個節(jié)點或?qū)印@纾B接、局部連接、跳躍連接等。
3、參數(shù):模型結(jié)構(gòu)還定義了模型的參數(shù)。例如,在神經(jīng)網(wǎng)絡(luò)中,這包括每個連接的權(quán)重和每個節(jié)點的偏差。
4、激活函數(shù):模型結(jié)構(gòu)中,每個節(jié)點或某些層可能會有激活函數(shù),如ReLU、sigmoid或tanh。
5、其他組件對于復(fù)雜的模型,例如長短時記憶網(wǎng)絡(luò)(LSTM),模型結(jié)構(gòu)會涉及更多的組件,如門控單元。
模型結(jié)構(gòu)提供了模型的概覽,并為模型的訓(xùn)練和應(yīng)用提供了框架。一旦定義了模型結(jié)構(gòu),您可以使用數(shù)據(jù)和算法來“訓(xùn)練”模型,即找到模型參數(shù)的最優(yōu)值。以下是一些常用的模型結(jié)構(gòu):
1、線性模型
線性回歸(Linear Regression)
邏輯回歸(Logistic Regression)
2、基于實例的模型
K最近鄰(K-Nearest Neighbors, K-NN)
3、決策樹模型
決策樹(Decision Trees)
隨機森林(Random Forests)
梯度提升樹(Gradient Boosting Trees)
4、支持向量機
線性支持向量機(Linear Support Vector Machines, SVM)
非線性支持向量機(Non-linear SVM)
5、集成方法
Bagging
Boosting(例如:AdaBoost,GBM,XGBoost, LightGBM)
6、神經(jīng)網(wǎng)絡(luò)及其變種
多層感知機(Multilayer Perceptrons, MLP)
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)
長短時記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)
Transformer Networks
GANs(生成對抗網(wǎng)絡(luò), Generative Adversarial Networks)
7、貝葉斯模型
樸素貝葉斯(Naive Bayes)
高斯過程(Gaussian Processes)
8、聚類模型
K-means
高斯混合模型(Gaussian Mixture Model, GMM)
DBSCAN
9、降維方法
主成分分析(Principal Component Analysis, PCA)
t-SNE (t-distributed Stochastic Neighbor Embedding)
10、其他
強化學(xué)習(xí)模型(Reinforcement Learning Models)
時間序列模型(例如:ARIMA,Prophet)
關(guān)聯(lián)規(guī)則學(xué)習(xí)模型(例如:Apriori,F(xiàn)P-Growth)
這些模型結(jié)構(gòu)具有不同的應(yīng)用領(lǐng)域和優(yōu)勢。例如,CNN通常用于圖像處理任務(wù),RNN和LSTM常用于序列數(shù)據(jù)如時間序列和自然語言處理任務(wù),決策樹和其集成版本(如隨機森林)則在許多分類和回歸任務(wù)中表現(xiàn)良好。
選擇哪種模型結(jié)構(gòu)通常取決于問題的性質(zhì)(例如,是分類、回歸、聚類還是其他類型的問題),數(shù)據(jù)的類型(例如,是表格數(shù)據(jù)、圖像、文本還是序列數(shù)據(jù))以及項目的需求(例如,解釋性、實時性、準(zhǔn)確性等)。
四、訓(xùn)練(學(xué)習(xí))
在機器學(xué)習(xí)中,訓(xùn)練是一個核心概念,指的是利用數(shù)據(jù)來“教”機器學(xué)習(xí)模型,從而使模型能夠為特定的任務(wù)做出預(yù)測或決策的過程。以下是訓(xùn)練的詳細(xì)解釋:
1、目標(biāo):訓(xùn)練的主要目標(biāo)是調(diào)整模型的參數(shù),使其能夠盡可能準(zhǔn)確地表示或擬合訓(xùn)練數(shù)據(jù),并在新的、未見過的數(shù)據(jù)上做出有效的預(yù)測。
2、過程
開始時,模型通常是未經(jīng)訓(xùn)練的,具有隨機或預(yù)設(shè)的參數(shù)值。
在訓(xùn)練過程中,模型會反復(fù)查看訓(xùn)練數(shù)據(jù),并嘗試調(diào)整其參數(shù),以減少其預(yù)測與實際標(biāo)簽之間的誤差。
使用一個優(yōu)化算法(如梯度下降)來指導(dǎo)如何更新參數(shù)。
3、誤差/損失:為了量化模型的預(yù)測與實際值之間的差異,通常會使用一個損失函數(shù)。訓(xùn)練的目標(biāo)是最小化這個損失函數(shù)。
4、迭代:訓(xùn)練通常涉及多次迭代,每次迭代都會對模型的參數(shù)進行微調(diào),以減少誤差。
5、過擬合與正則化:雖然模型可能在訓(xùn)練數(shù)據(jù)上表現(xiàn)得很好,但有時它可能過于復(fù)雜,導(dǎo)致在新數(shù)據(jù)上表現(xiàn)不佳。這種現(xiàn)象稱為過擬合。為了避免過擬合,可以使用各種正則化技巧。
簡而言之,訓(xùn)練就是使用數(shù)據(jù)來“教”模型,使其能夠根據(jù)輸入做出有意義的預(yù)測。這通常通過調(diào)整模型的參數(shù)來實現(xiàn),直到模型在訓(xùn)練數(shù)據(jù)上的性能達到滿意的水平。
五、算法和模型的區(qū)別
從前面的定義可知,在機器學(xué)習(xí)中,算法是一種過程或方法,用于從數(shù)據(jù)中學(xué)習(xí)模式,而模型是這種學(xué)習(xí)的結(jié)果,它封裝了從數(shù)據(jù)中學(xué)到的知識,也是后期用于推理預(yù)測的基礎(chǔ),是一套推理“規(guī)則”,它們的主要區(qū)別可以總結(jié)如下:
1、本質(zhì)
算法:算法是一種解決問題的方法或過程。在機器學(xué)習(xí)中,算法通常描述如何從數(shù)據(jù)中學(xué)習(xí),并如何調(diào)整模型的參數(shù)以優(yōu)化其性能。
模型:模型是某種現(xiàn)象的簡化表示或描述。在機器學(xué)習(xí)中,模型是算法在特定數(shù)據(jù)集上訓(xùn)練后的輸出,它能夠?qū)π碌妮斎脒M行預(yù)測或分類。
2、形態(tài)
算法:是一組明確的步驟或規(guī)則,通常可以用數(shù)學(xué)公式、偽代碼或?qū)嶋H編程代碼來描述。
模型:可能是一組參數(shù)(例如線性回歸中的權(quán)重和偏差)、一個決策樹結(jié)構(gòu)、神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏置等。
3、持久性
算法:算法是靜態(tài)的,它不會因為訓(xùn)練數(shù)據(jù)的變化而變化。
模型:模型是動態(tài)的,它基于訓(xùn)練數(shù)據(jù)和算法生成。不同的訓(xùn)練數(shù)據(jù)或算法變化可能會產(chǎn)生不同的模型。
4、應(yīng)用場景
算法:通常是通用的,可以應(yīng)用于多個數(shù)據(jù)集和問題。
模型:是特定于某一任務(wù)或數(shù)據(jù)集的。例如,一個用于識別貓的模型可能不適用于預(yù)測房價。
因此,在我們說決策樹這個概念的時候,到底是指算法和模型,其實取決于上下文和你想表達的重點:
1、決策樹作為模型 (Model)
當(dāng)我們談?wù)摰揭粋€特定的決策樹(例如,一個經(jīng)過訓(xùn)練的決策樹,用于分類某種數(shù)據(jù)),我們通常是在將其視為一個模型。這個模型可以對新的數(shù)據(jù)進行預(yù)測或分類。
這種意義下的決策樹是一個表示決策規(guī)則和路徑的結(jié)構(gòu)。
2、決策樹作為算法 (Algorithm)
當(dāng)我們談?wù)撊绾螐臄?shù)據(jù)中構(gòu)建決策樹時,我們是在描述一個算法過程。例如,ID3、C4.5和CART等都是決策樹學(xué)習(xí)的算法。
這些算法為如何根據(jù)數(shù)據(jù)集選擇合適的特征、如何進行分裂、以及如何構(gòu)造樹提供了明確的步驟。
因此,決策樹既可以被認(rèn)為是一種模型(當(dāng)描述其代表的決策規(guī)則時)也可以被認(rèn)為是算法(當(dāng)描述如何從數(shù)據(jù)中構(gòu)建決策樹時),一般來講,我們說決策樹模型的時候,如果沒有特別指定,應(yīng)該指的是決策樹模型結(jié)構(gòu),如果有實例,那一般指用決策樹算法實現(xiàn)的某個具體的業(yè)務(wù)模型,比如鳶尾花決策樹模型。而當(dāng)我們在說決策樹算法的時候,除非特別指明,往往是指決策樹的算法集,包括ID3、C4.5、CART等等。
六、算法、模型和訓(xùn)練的關(guān)系
從模型視角看,模型是算法的輸出和訓(xùn)練過程的產(chǎn)物。算法定義了如何從數(shù)據(jù)中更新模型的參數(shù),而訓(xùn)練則是這一過程的實際執(zhí)行。從算法視角看,算法是訓(xùn)練模型的指導(dǎo)策略。通過不斷地調(diào)整模型的參數(shù),算法努力使模型更好地擬合訓(xùn)練數(shù)據(jù)。從訓(xùn)練視角看,訓(xùn)練使用某種算法作為指導(dǎo),根據(jù)訓(xùn)練數(shù)據(jù)調(diào)整模型的參數(shù)。訓(xùn)練結(jié)束后,我們獲得了一個調(diào)整過的、用于預(yù)測或分類的模型。
1、在機器學(xué)習(xí)的過程開始時,研究者選擇或設(shè)計一個模型結(jié)構(gòu),這通常是基于問題的性質(zhì)和可用數(shù)據(jù)的類型。
2、接下來,選擇一個算法來調(diào)整模型的參數(shù)。算法的選擇通常基于模型的性質(zhì)和所需的優(yōu)化策略。
3、有了模型結(jié)構(gòu)和算法后,可以開始訓(xùn)練過程。在訓(xùn)練過程中,算法反復(fù)調(diào)整模型的參數(shù),使其更好地擬合數(shù)據(jù),直到達到某種停止標(biāo)準(zhǔn)(例如,誤差下降到某個閾值或達到預(yù)定的迭代次數(shù))。
讓我們以一個常見的例子來說明:手寫數(shù)字識別(例如,識別0-9的手寫數(shù)字)進行說明。
1、選擇或設(shè)計模型結(jié)構(gòu)
問題的性質(zhì):手寫數(shù)字識別是一個多分類問題,因為我們想要從10個類別中(0到9)選擇一個。
可用數(shù)據(jù)的類型:我們有手寫數(shù)字的圖片,每張圖片是一個二維的像素陣列。
選擇的模型:考慮到問題的性質(zhì)和數(shù)據(jù)類型,我們選擇一個卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)為模型結(jié)構(gòu)。CNN在圖像分類任務(wù)中表現(xiàn)出色,因為它可以捕捉到圖像的局部模式。
2、選擇一個算法來調(diào)整模型的參數(shù)
模型的性質(zhì):CNN是一個深度神經(jīng)網(wǎng)絡(luò),包含多個卷積層、池化層和全連接層。
選擇的算法:基于模型的性質(zhì),我們選擇使用隨機梯度下降(Stochastic Gradient Descent, SGD)及其變種,如Adam或RMSprop,作為優(yōu)化算法。這些算法已被證明在深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中效果很好。
3、開始訓(xùn)練過程
使用MNIST數(shù)據(jù)集(一個手寫數(shù)字的標(biāo)準(zhǔn)數(shù)據(jù)集),我們將每個手寫數(shù)字圖片的像素值輸入到我們的CNN模型中。
在訓(xùn)練過程中,算法(例如Adam)反復(fù)調(diào)整模型的權(quán)重和偏置,使其更好地擬合訓(xùn)練數(shù)據(jù)。
停止標(biāo)準(zhǔn):我們可以設(shè)置當(dāng)驗證集上的分類準(zhǔn)確率不再提高或者誤差不再顯著下降時,停止訓(xùn)練。或者簡單地設(shè)置訓(xùn)練迭代10,000次為停止標(biāo)準(zhǔn)。
經(jīng)過這三個步驟后,我們就有了一個訓(xùn)練好的CNN模型,可以用于識別新的手寫數(shù)字圖片。
最后,讓我們回到前面提出的問題,支持向量機到底是是指什么?
這其實是要看上下文的。當(dāng)你想表達"試圖找到一個超平面(在高維空間中)來分割數(shù)據(jù),使得該超平面到兩個類別的距離(即間隔)最大化“這個意思的時候,它是指SVM模型。當(dāng)你想表達”為了找到這個最優(yōu)的超平面,需要解決一個凸優(yōu)化問題,通常使用例如序列最小優(yōu)化(SMO)算法“這個意思的時候,它是指SVM算法。當(dāng)我們沒有特指,僅僅說“使用SVM”時,通常意味著我們使用了SVM定義的模型(最大間隔超平面)以及與之相關(guān)的優(yōu)化算法(如SMO)來進行訓(xùn)練。
最后我再做個總結(jié):
模型:現(xiàn)實世界的數(shù)學(xué)表示或模擬,它是指一種結(jié)果。
算法:執(zhí)行特定任務(wù)的明確步驟序列。
模型結(jié)構(gòu):模型的特定框架或架構(gòu)。
數(shù)據(jù)模型:描述數(shù)據(jù)對象、其關(guān)系及與其相關(guān)的操作的抽象結(jié)構(gòu)。
訓(xùn)練:使用數(shù)據(jù)調(diào)整模型參數(shù)以改進模型性能的過程。
(部分內(nèi)容來源網(wǎng)絡(luò),如有侵權(quán)請聯(lián)系刪除)