題目 |
題目類型 |
操作 |
基于內(nèi)容的推薦算法生成推薦的過程主要依靠( )(多選) |
普通多選題 |
去答題
|
集成方法中的提升法(Boosting),可用在下列哪些方法中?(多選) |
普通多選題 |
去答題
|
集成方法中的提升法(Boosting),可用在下列哪些方法中?(多選) |
普通多選題 |
去答題
|
集成學習分哪幾種?(多選) |
普通多選題 |
去答題
|
假定某同學使用Naive Bayesian(NB)分類模型時,不小心將訓練數(shù)據(jù)的兩個維度搞重復了,那... |
普通多選題 |
去答題
|
決策樹(Decision Tree)算法,通??梢杂脕斫鉀Q何種問題?(多選) |
普通多選題 |
去答題
|
決策樹當中在做特征選擇的過程中用的什么來描述不純度?(多選) |
普通多選題 |
去答題
|
決策樹的算法需考慮哪兩個重點?(多選) |
普通多選題 |
去答題
|
決策樹有哪些常用的啟發(fā)函數(shù)()(多選) |
普通多選題 |
去答題
|
決策樹中對于節(jié)點的不純度的衡量指標有()(多選) |
普通多選題 |
去答題
|
類別型數(shù)據(jù)的處理方式有()(多選) |
普通多選題 |
去答題
|
邏輯回歸和SVM的聯(lián)系與區(qū)別,正確的是?(多選) |
普通多選題 |
去答題
|
某大樣本數(shù)據(jù)集的缺失值占比約10%。數(shù)據(jù)分析師小A首先刪除了所有有缺失值的樣本,建立了回歸模型。然后... |
普通多選題 |
去答題
|
樸素貝葉斯公式中一個重要的前提條件是什么()(多選) |
普通多選題 |
去答題
|
請問要符合什么條件才可被稱為關(guān)聯(lián)規(guī)則 ?(多選) |
普通多選題 |
去答題
|
如果SVM模型欠擬合,以下方法哪些可以改進模型(多選) |
普通多選題 |
去答題
|
如何來優(yōu)化Kmeans?(多選) |
普通多選題 |
去答題
|
如何增加KNN的模型準確度(多選) |
普通多選題 |
去答題
|
如何做xgboost模型的交叉驗證 ()(多選) |
普通多選題 |
去答題
|
屬于簇有效性的監(jiān)督度量是()。(多選) |
普通多選題 |
去答題
|