題目 |
題目類型 |
操作 |
下列選項哪些是通過聚集多個分類器的組合來提高分類準確率的技術(shù)? |
普通多選題 |
去答題
|
集成學習方法是機器學習領(lǐng)域中用來提升分類算法準確率的技術(shù),主要包括Bagging和Boosting即... |
普通多選題 |
去答題
|
數(shù)據(jù)挖掘結(jié)合了數(shù)據(jù)庫、人工智能、機器學習、統(tǒng)計學、高性能計算、模式識別、神經(jīng)網(wǎng)絡(luò)、數(shù)據(jù)可視化、信息檢... |
普通選擇題 |
去答題
|
數(shù)據(jù)挖掘起始于20世紀下半葉,是在當時多個學科發(fā)展的基礎(chǔ)上發(fā)展起來的。關(guān)于數(shù)據(jù)挖掘的發(fā)展歷程,下列何... |
普通選擇題 |
去答題
|
知識發(fā)掘處理(Knowledge Discovery Process)的執(zhí)行順序,下列何者是正確的(... |
普通選擇題 |
去答題
|
數(shù)據(jù)準備方法是在評估模型性能之前對整個數(shù)據(jù)集進行處理,這會導致數(shù)據(jù)泄漏的問題,而在數(shù)據(jù)清洗過程中(缺... |
普通選擇題 |
去答題
|
在KNN算法上進行預(yù)測概率的推估時,會采用哪一種方法,以保證每一類的預(yù)測概率不為0 |
普通選擇題 |
去答題
|
很多研究問題時常常需要估算不同樣本之間的相似性度量(Similarity Measurement),... |
普通選擇題 |
去答題
|
無監(jiān)督學習和監(jiān)督學習是機器學習最基本的兩種類型,下列哪些算法屬于無監(jiān)督學習(Unsupervised... |
普通選擇題 |
去答題
|
不同類型的機器學習模型,所使用的模型評價指標也有所不同。一般情況下,以下哪些指標不用于聚類模型評價 |
普通選擇題 |
去答題
|
關(guān)聯(lián)規(guī)則挖掘的目的是在數(shù)據(jù)項目中找出所有的并發(fā)關(guān)系,以下可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有() |
普通選擇題 |
去答題
|
數(shù)據(jù)泛化把較低層次的概念用較高層次的概念替換來匯總數(shù)據(jù)。以下對于數(shù)據(jù)泛化描述錯誤的是: |
普通選擇題 |
去答題
|
XGBoost是"極端梯度提升"(eXtreme Gradient Boosting)的簡稱,下面關(guān)... |
普通選擇題 |
去答題
|
隨機森林(Random Forest,簡稱RF)擁有廣泛的應(yīng)用前景,從市場營銷到醫(yī)療保健保險,既可以... |
普通選擇題 |
去答題
|
特征工程是將原始數(shù)據(jù)轉(zhuǎn)化為特征的過程,這些特征可以更好地向預(yù)測模型描述潛在問題,從而提高模型對未見數(shù)... |
普通選擇題 |
去答題
|
常見的缺失值填充方法有填充默認值、均值、眾數(shù)等方式。下面可以對分類變量的缺失值填充的方法是? |
普通選擇題 |
去答題
|
特征縮放是對輸入數(shù)據(jù)進行標準化所需的重要預(yù)處理之一 。關(guān)于min-max特征縮放的描述錯誤的是: |
普通選擇題 |
去答題
|
逆向文本頻率(inverse document frequency,IDF)是一個詞語普遍重要性的度... |
普通選擇題 |
去答題
|
卡方檢驗是檢驗定性自變量對定性因變量的相關(guān)性,卡方檢驗就是統(tǒng)計樣本的實際觀測值與理論推斷值之間的偏離... |
普通選擇題 |
去答題
|
以下關(guān)于遞歸特征消除法(RFE)的描述中錯誤的是? |
普通選擇題 |
去答題
|