正確答案是:A: 組合(ensemble)
### 專業(yè)分析:
在機(jī)器學(xué)習(xí)和統(tǒng)計(jì)學(xué)中,通過聚集多個分類器的預(yù)測來提高分類準(zhǔn)確率的技術(shù)被稱為**集成學(xué)習(xí)(Ensemble Learning)**。這一技術(shù)的核心思想是結(jié)合多個模型的預(yù)測結(jié)果以獲得比單個模型更好的性能。以下是一些常見的集成學(xué)習(xí)方法:
1. **Bagging(Bootstrap Aggregating)**:
- 通過對數(shù)據(jù)集進(jìn)行有放回的隨機(jī)采樣,訓(xùn)練多個模型(如決策樹),然后對這些模型的結(jié)果進(jìn)行平均或投票。
- 示例:隨機(jī)森林(Random Forest)。
2. **Boosting**:
- 通過加權(quán)的方法逐步訓(xùn)練一系列弱分類器,每個新的分類器力圖糾正其前一序列分類器的錯誤。
- 示例:AdaBoost,Gradient Boosting。
3. **Stacking**:
- 使用多個模型的預(yù)測作為輸入,訓(xùn)練一個新的模型進(jìn)行最終預(yù)測。
- 這是一種元學(xué)習(xí)方法。
4. **Voting**:
- 使用多種不同的模型,對每個模型的預(yù)測進(jìn)行投票,選擇票數(shù)最多的結(jié)果為最終預(yù)測。
### 為什么選擇 A: 組合(ensemble):
- 組合(ensemble) 是一個通用術(shù)語,涵蓋了多種集成學(xué)習(xí)方法如 Bagging、Boosting 和 Stacking。
- 聚集(aggregate)、合并(combination)、投票(voting) 雖然在某些情況下也可以描述集成學(xué)習(xí)的某些方面,但它們通常指的是集成學(xué)習(xí)中的具體技術(shù)或步驟,而不是整個技術(shù)范疇。