午夜精品久久久久久久99老熟妇,天堂中文www官网,未满十八18勿进黄网站,太粗太深了太紧太爽了,天天爽夜夜爽夜夜爽

考試報(bào)名
考試報(bào)名
考試內(nèi)容
考試大綱
在線客服
返回頂部

備考刷題,請(qǐng)到

CDA認(rèn)證小程序

關(guān)于深度學(xué)習(xí)模型訓(xùn)練,以下說法錯(cuò)誤的是:
A. 網(wǎng)中網(wǎng)(NIN)結(jié)構(gòu)用全連接的多層感知機(jī)去代替?zhèn)鹘y(tǒng)的卷積,提升了模型的計(jì)算性能,但計(jì)算量顯著增加
B. 網(wǎng)絡(luò)層數(shù)越多,學(xué)習(xí)率可設(shè)置偏大,否則容易引起梯度消失
C. VGG只要很少的迭代次數(shù)就會(huì)收斂,這是因?yàn)樾〉倪^濾尺寸起到了隱式的規(guī)則化的作用
D. Bagging中每個(gè)訓(xùn)練集互不相關(guān),而Boosting中訓(xùn)練集要在上一輪的結(jié)果上進(jìn)行調(diào)整,所以不能并行計(jì)算
上一題
下一題
收藏
點(diǎn)贊
評(píng)論
題目解析
題目評(píng)論(0)

正確答案是:B: 網(wǎng)絡(luò)層數(shù)越多,學(xué)習(xí)率可設(shè)置偏大,否則容易引起梯度消失。

分析:

A: 網(wǎng)中網(wǎng)(NIN)結(jié)構(gòu)通過使用全連接的多層感知機(jī)來代替?zhèn)鹘y(tǒng)的卷積層,這種方法可以提升模型的表達(dá)能力,但通常會(huì)導(dǎo)致計(jì)算量增加。這個(gè)說法是正確的。

B: 網(wǎng)絡(luò)層數(shù)越多,學(xué)習(xí)率通常需要設(shè)置得更小,而不是更大。原因是深層網(wǎng)絡(luò)容易出現(xiàn)梯度消失或梯度爆炸的問題,較大的學(xué)習(xí)率會(huì)加劇這些問題。因此,這個(gè)說法是錯(cuò)誤的。

C: VGG網(wǎng)絡(luò)使用較小的卷積核(如3x3),這在一定程度上起到了隱式規(guī)則化的作用,幫助網(wǎng)絡(luò)更快地收斂。這個(gè)說法是正確的。

D: Bagging(Bootstrap Aggregating)方法中,各個(gè)子模型的訓(xùn)練集是通過自助采樣法生成的,彼此獨(dú)立,因此可以并行計(jì)算。而Boosting方法中,每個(gè)模型的訓(xùn)練集是基于前一個(gè)模型的結(jié)果進(jìn)行調(diào)整的,因此不能并行計(jì)算。這個(gè)說法是正確的。

因此,B選項(xiàng)是錯(cuò)誤的。