CDA數(shù)據(jù)分析師 出品
作者:Ivo Bernardo
編譯:Mika
數(shù)據(jù)分析模型有不同的特點(diǎn)和技術(shù),值得注意的是,大多數(shù)高級(jí)的模型都基于幾個(gè)基本原理。
當(dāng)你想開(kāi)啟數(shù)據(jù)科學(xué)家的職業(yè)生涯時(shí),應(yīng)該學(xué)習(xí)哪些模型呢?本文中我們介紹了6個(gè)在業(yè)界廣泛使用的模型。
目前很多輿論對(duì)機(jī)器學(xué)習(xí)和人工智過(guò)度追捧,當(dāng)你想建立預(yù)測(cè)模型時(shí),這會(huì)讓給你不禁思考,是不是只有很高階的技術(shù)才能解決問(wèn)題。
但當(dāng)你自己試著編程后才會(huì)發(fā)現(xiàn),事實(shí)實(shí)際并非如此。作為一名數(shù)據(jù)工作者,你面臨的很多問(wèn)題都需要將幾個(gè)模型組合起來(lái)解決,而且其中大部分模型已經(jīng)出現(xiàn)了很長(zhǎng)時(shí)間。
而且,即使你要使用先進(jìn)的模型來(lái)解決問(wèn)題,學(xué)習(xí)基本原理會(huì)讓你在大多數(shù)情況中占得先機(jī)。與此同時(shí),了解這些基礎(chǔ)模型的優(yōu)缺點(diǎn)將幫助你在數(shù)據(jù)分析項(xiàng)目取得成功。
下面我們就來(lái)具體看看6個(gè)數(shù)據(jù)分析師都應(yīng)該掌握的預(yù)測(cè)模型吧。
01 線性回歸
線性回歸比較經(jīng)典的模型之一,英國(guó)科學(xué)家Francis Galton在19世紀(jì)就使用了 "回歸 "一詞,并且仍然是使用數(shù)據(jù)表示線性關(guān)系最有效的模型之一。
線性回歸是世界范圍內(nèi),許多計(jì)量經(jīng)濟(jì)學(xué)課程的主要內(nèi)容。學(xué)習(xí)該線性模型將讓你在解決回歸問(wèn)題有方向,并了解如何用數(shù)學(xué)知識(shí)來(lái)預(yù)測(cè)現(xiàn)象。
學(xué)習(xí)線性回歸還有其他好處,尤其是當(dāng)你學(xué)習(xí)了兩種可以獲得最佳性能的方法時(shí):
· 閉式解 一個(gè)神奇的公式,能通過(guò)一個(gè)簡(jiǎn)單的代數(shù)方程給出變量的權(quán)重。
· 梯度下降法 面向最佳權(quán)重值的優(yōu)化方法,用于優(yōu)化其他類型的算法。
此外,我們可以用簡(jiǎn)單的二維圖在實(shí)踐中直觀地看到線性回歸,這也使該模型成為理解算法的良好開(kāi)始。
02 邏輯回歸
雖然名為回歸,但邏輯回歸是掌握分類問(wèn)題的最佳模型。
學(xué)習(xí)邏輯回歸有以下幾點(diǎn)優(yōu)勢(shì):
- 初步了解分類和多分類問(wèn)題,這是機(jī)器學(xué)習(xí)任務(wù)的重要部分
- 理解函數(shù)轉(zhuǎn)換,如Sigmoid函數(shù)的轉(zhuǎn)換
- 了解梯度下降的其他函數(shù)的用法,以及如何對(duì)函數(shù)進(jìn)行優(yōu)化。
- 初步了解Log-Loss函數(shù)
學(xué)習(xí)完邏輯回歸后,有什么用?你將能夠理解分類問(wèn)題背后的機(jī)制,以及你如何使用機(jī)器學(xué)習(xí)來(lái)分離類別。
屬于這方面的問(wèn)題如下:
- 了解交易是否欺詐
- 了解客戶是否會(huì)流失
- 根據(jù)違約概率對(duì)貸款進(jìn)行分類
就像線性回歸一樣,邏輯回歸也是一種線性算法。在研究了這兩種算法之后,你將了解線性算法背后的主要局限性,同時(shí)認(rèn)識(shí)到它們無(wú)法代表許多現(xiàn)實(shí)世界的復(fù)雜性。
03 決策樹(shù)
首先要研究的非線性算法應(yīng)該是決策樹(shù)。決策樹(shù)是一種基于if-else規(guī)則的,相對(duì)簡(jiǎn)單且可解釋的算法,它將讓你很好地掌握非線性算法及其優(yōu)缺點(diǎn)。
決策樹(shù)是所有基于樹(shù)模型的基礎(chǔ),通過(guò)學(xué)習(xí)決策樹(shù),你還將準(zhǔn)備學(xué)習(xí)其他技術(shù),如XGBoost或LightGBM。
而且,決策樹(shù)同時(shí)適用于回歸和分類問(wèn)題,兩者之間的差異最小,選擇影響結(jié)果的最佳變量的基本原理大致相同,你只是換了一個(gè)標(biāo)準(zhǔn)來(lái)做。
雖然你了解了回歸中超參數(shù)的概念,如正則化參數(shù),但在決策樹(shù)中這是極其重要的,能夠幫你明確區(qū)分模型的好壞。
同時(shí),超參數(shù)在學(xué)習(xí)機(jī)器學(xué)習(xí)的過(guò)程中也至關(guān)重要,決策樹(shù)能很好地對(duì)其進(jìn)行測(cè)試。
04 隨機(jī)森林
由于決策樹(shù)對(duì)超參數(shù)和簡(jiǎn)單假設(shè)的敏感性,決策樹(shù)的結(jié)果相當(dāng)有限。當(dāng)你深入了解后,你會(huì)明白決策樹(shù)很容易過(guò)度擬合,從而得出的模型對(duì)未來(lái)缺乏概括性。
隨機(jī)森林的概念非常簡(jiǎn)單。有助于在不同的決策樹(shù)之間實(shí)現(xiàn)多樣化,從而提高算法的穩(wěn)健性。
就像決策樹(shù)一樣,你可以配置大量的超參數(shù),以增強(qiáng)這種集成模型的性能。集成(bagging)是在機(jī)器學(xué)習(xí)中一個(gè)非常重要的概念,能為不同的模型帶來(lái)了穩(wěn)定性,即用平均數(shù)或投票機(jī)制將不同模型的結(jié)果轉(zhuǎn)化為一個(gè)單一的方法。
在實(shí)踐中,隨機(jī)森林訓(xùn)練了固定數(shù)量的決策樹(shù),并對(duì)之前所有這些模型的結(jié)果進(jìn)行平均。就像決策樹(shù)一樣,我們有分類和回歸隨機(jī)森林。如果你聽(tīng)說(shuō)過(guò) “群體智慧 "這個(gè)概念,那么集成模型就相當(dāng)于將這個(gè)概念應(yīng)用于機(jī)器模型訓(xùn)練。
05 XGBoost/LightGBM
其他基于決策樹(shù)的算法,并能帶來(lái)穩(wěn)定性的模型有XGBoost或LightGBM。不僅能提升算法,還能提供更穩(wěn)健和概括性的模式。
在Michael Kearns發(fā)表了關(guān)于弱學(xué)習(xí)者和假設(shè)檢驗(yàn)的論文后,關(guān)于機(jī)器學(xué)習(xí)模型的思潮得到了關(guān)注。當(dāng)中表明,增強(qiáng)模型是解決模型受到整體權(quán)衡偏差與方差的絕佳方案。此外,這些模型是Kaggle競(jìng)賽中最受歡迎的選擇。
06 人工神經(jīng)網(wǎng)絡(luò)
最后,是當(dāng)前預(yù)測(cè)模型中的王者——人工神經(jīng)網(wǎng)絡(luò)(ANNs)。
人工神經(jīng)網(wǎng)絡(luò)是目前最好的模型之一,可以在數(shù)據(jù)中找到非線性模式,并在自變量和因變量之間建立真正復(fù)雜的關(guān)系。通過(guò)學(xué)習(xí)人工神經(jīng)網(wǎng)絡(luò),你將接觸到激活函數(shù)、反向傳播和神經(jīng)網(wǎng)絡(luò)層的概念,這些概念應(yīng)該為你研究深度學(xué)習(xí)模型打下良好的基礎(chǔ)。
此外,神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)上有很多不同的特點(diǎn),學(xué)習(xí)最基本的神經(jīng)網(wǎng)絡(luò)將為轉(zhuǎn)到其他類型的模型打下基礎(chǔ),如主要用于自然語(yǔ)言處理和遞歸神經(jīng)網(wǎng)絡(luò)和主要用于計(jì)算機(jī)視覺(jué)的卷積神經(jīng)網(wǎng)絡(luò)。
結(jié)語(yǔ):
以上就是今天的全部?jī)?nèi)容。掌握這些模型應(yīng)該會(huì)讓你在數(shù)據(jù)分析和機(jī)器學(xué)習(xí)方面有一個(gè)不錯(cuò)的開(kāi)始。