正確答案是:B: 網(wǎng)絡(luò)層數(shù)越多,學(xué)習(xí)率可設(shè)置偏大,否則容易引起梯度消失。
分析:
A: 網(wǎng)中網(wǎng)(NIN)結(jié)構(gòu)通過使用全連接的多層感知機(jī)來代替?zhèn)鹘y(tǒng)的卷積層,這種方法可以提升模型的表達(dá)能力,但通常會(huì)導(dǎo)致計(jì)算量增加。這個(gè)說法是正確的。
B: 網(wǎng)絡(luò)層數(shù)越多,學(xué)習(xí)率通常需要設(shè)置得更小,而不是更大。原因是深層網(wǎng)絡(luò)容易出現(xiàn)梯度消失或梯度爆炸的問題,較大的學(xué)習(xí)率會(huì)加劇這些問題。因此,這個(gè)說法是錯(cuò)誤的。
C: VGG網(wǎng)絡(luò)使用較小的卷積核(如3x3),這在一定程度上起到了隱式規(guī)則化的作用,幫助網(wǎng)絡(luò)更快地收斂。這個(gè)說法是正確的。
D: Bagging(Bootstrap Aggregating)方法中,各個(gè)子模型的訓(xùn)練集是通過自助采樣法生成的,彼此獨(dú)立,因此可以并行計(jì)算。而Boosting方法中,每個(gè)模型的訓(xùn)練集是基于前一個(gè)模型的結(jié)果進(jìn)行調(diào)整的,因此不能并行計(jì)算。這個(gè)說法是正確的。
因此,B選項(xiàng)是錯(cuò)誤的。