A.隨機(jī)數(shù)
B.常數(shù)
C.通過(guò)其他變初始值計(jì)算得到
D.null
您可能感興趣的試卷
你可能感興趣的試題
A.服務(wù)可以識(shí)別出摩天大樓.建筑.船舶這樣具體的物體
B.服務(wù)也可以識(shí)別出大海.城市.港口等場(chǎng)景
C.服務(wù)可對(duì)圖片中的內(nèi)容進(jìn)行語(yǔ)義分析,提取出具體抽象意義的標(biāo)簽
D.服務(wù)可以提供物體和場(chǎng)景標(biāo)簽,也能較多的提供概念標(biāo)簽
A.隨機(jī)賦值,祈禱它們是正確的
B.搜索所有權(quán)重和偏差的組合,直到得到最佳值
C.賦于一個(gè)初始值,通過(guò)檢查跟最佳值的差值,然后迭代更新權(quán)重
D.以上都不正確
A.反向傳播算法的學(xué)習(xí)過(guò)程由正向傳播過(guò)程和反向傳播過(guò)程組成
B.反向傳播算法適合于多層神經(jīng)網(wǎng)絡(luò),它建立在梯度下降法的基礎(chǔ)上
C.反向傳播階段將訓(xùn)練輸入送入網(wǎng)絡(luò)以獲得激勵(lì)響應(yīng)
D.反向傳播算法主要由兩個(gè)環(huán)節(jié)(激勵(lì)傳播.權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對(duì)輸入的響應(yīng)的目標(biāo)范圍為止
最新試題
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
反向傳播算法的基本原理是基于什么()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過(guò)程并提高模型在特定任務(wù)上的表現(xiàn)()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類(lèi)和文本處理任務(wù)上的精確度()?
在自然語(yǔ)言處理中,哪些方法可以用于提升文本分類(lèi)、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?