午夜精品久久久久久久99老熟妇,天堂中文www官网,未满十八18勿进黄网站,太粗太深了太紧太爽了,天天爽夜夜爽夜夜爽

考試報名
考試報名
考試內容
考試大綱
在線客服
返回頂部

備考刷題,請到

CDA認證小程序

關于梯度下降的優(yōu)缺點描述不正確的是()
A. 批梯度下降會獲得全局最優(yōu)解,缺點是計算量會很大
B. 梯度下降法有可能會收斂到局部最優(yōu)解中
C. 對于模型來講,應該選擇一個固定的學習率
D. 樣本量極大時,每次更新權重需要耗費大量的算力,這時可采取隨機梯度下降法
上一題
下一題
收藏
點贊
評論
題目解析
題目評論(0)

這道題目涉及的是梯度下降算法的優(yōu)缺點分析。我們需要判斷哪個選項的描述不正確,并提供詳細的分析。

### 各選項分析:

| 選項 | 描述 | 分析 |
|------|------|------|
| A | 批梯度下降會獲得全局最優(yōu)解,缺點是計算量會很大 | **不完全正確**:批梯度下降不是總能獲得全局最優(yōu)解,特別是在非凸損失函數(shù)上,它可能會收斂到局部最優(yōu)解。計算量大是因為計算所有樣本的梯度。 |
| B | 梯度下降法有可能會收斂到局部最優(yōu)解中 | **正確**:梯度下降法尤其是在處理非凸問題時,確實有可能會收斂到局部最優(yōu)解。 |
| C | 對于模型來講,應該選擇一個固定的學習率 | **不完全正確**:固定學習率在某些情況下可以使用,但自適應學習率(如Adam, RMSProp)通常更有效,因為它可以根據(jù)需要調整學習率以提高收斂速度和穩(wěn)定性。 |
| D | 樣本量極大時,每次更新權重需要耗費大量的算力,這時可采取隨機梯度下降法 | **正確**:隨機梯度下降(SGD)在樣本量大時更高效,因為它使用一個樣本或小批量進行更新,從而減少了每次更新的計算量。 |

### 正確答案

根據(jù)分析,選項 A 和 C 的描述不完全正確,因此可能會誤導,其中選項 C 是最明顯不準確的,因為現(xiàn)代實踐中通常使用自適應學習率,而不是固定學習率。所以**描述不正確的選項是 C**。