這道題目涉及的是梯度下降算法的優(yōu)缺點分析。我們需要判斷哪個選項的描述不正確,并提供詳細的分析。
### 各選項分析:
| 選項 | 描述 | 分析 |
|------|------|------|
| A | 批梯度下降會獲得全局最優(yōu)解,缺點是計算量會很大 | **不完全正確**:批梯度下降不是總能獲得全局最優(yōu)解,特別是在非凸損失函數(shù)上,它可能會收斂到局部最優(yōu)解。計算量大是因為計算所有樣本的梯度。 |
| B | 梯度下降法有可能會收斂到局部最優(yōu)解中 | **正確**:梯度下降法尤其是在處理非凸問題時,確實有可能會收斂到局部最優(yōu)解。 |
| C | 對于模型來講,應該選擇一個固定的學習率 | **不完全正確**:固定學習率在某些情況下可以使用,但自適應學習率(如Adam, RMSProp)通常更有效,因為它可以根據(jù)需要調整學習率以提高收斂速度和穩(wěn)定性。 |
| D | 樣本量極大時,每次更新權重需要耗費大量的算力,這時可采取隨機梯度下降法 | **正確**:隨機梯度下降(SGD)在樣本量大時更高效,因為它使用一個樣本或小批量進行更新,從而減少了每次更新的計算量。 |
### 正確答案
根據(jù)分析,選項 A 和 C 的描述不完全正確,因此可能會誤導,其中選項 C 是最明顯不準確的,因為現(xiàn)代實踐中通常使用自適應學習率,而不是固定學習率。所以**描述不正確的選項是 C**。