單項(xiàng)選擇題TensorFlow中不支持哪種方式定義變量()

A.隨機(jī)數(shù)
B.常數(shù)
C.通過(guò)其他變初始值計(jì)算得到
D.null


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題以下選項(xiàng)中關(guān)于圖像識(shí)別云服務(wù)器描述錯(cuò)誤的是()

A.服務(wù)可以識(shí)別出摩天大樓.建筑.船舶這樣具體的物體
B.服務(wù)也可以識(shí)別出大海.城市.港口等場(chǎng)景
C.服務(wù)可對(duì)圖片中的內(nèi)容進(jìn)行語(yǔ)義分析,提取出具體抽象意義的標(biāo)簽
D.服務(wù)可以提供物體和場(chǎng)景標(biāo)簽,也能較多的提供概念標(biāo)簽

2.單項(xiàng)選擇題在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,你就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是什么()

A.隨機(jī)賦值,祈禱它們是正確的
B.搜索所有權(quán)重和偏差的組合,直到得到最佳值
C.賦于一個(gè)初始值,通過(guò)檢查跟最佳值的差值,然后迭代更新權(quán)重
D.以上都不正確

4.單項(xiàng)選擇題關(guān)于反向傳播描述錯(cuò)誤的是()

A.反向傳播算法的學(xué)習(xí)過(guò)程由正向傳播過(guò)程和反向傳播過(guò)程組成
B.反向傳播算法適合于多層神經(jīng)網(wǎng)絡(luò),它建立在梯度下降法的基礎(chǔ)上
C.反向傳播階段將訓(xùn)練輸入送入網(wǎng)絡(luò)以獲得激勵(lì)響應(yīng)
D.反向傳播算法主要由兩個(gè)環(huán)節(jié)(激勵(lì)傳播.權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對(duì)輸入的響應(yīng)的目標(biāo)范圍為止

最新試題

在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?

題型:?jiǎn)雾?xiàng)選擇題

在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。

題型:?jiǎn)雾?xiàng)選擇題

反向傳播算法的基本原理是基于什么()?

題型:多項(xiàng)選擇題

圖像數(shù)據(jù)標(biāo)注可以用于()算法中。

題型:多項(xiàng)選擇題

在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?

題型:多項(xiàng)選擇題

在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過(guò)程并提高模型在特定任務(wù)上的表現(xiàn)()?

題型:多項(xiàng)選擇題

在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?

題型:?jiǎn)雾?xiàng)選擇題

在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類(lèi)和文本處理任務(wù)上的精確度()?

題型:多項(xiàng)選擇題

在自然語(yǔ)言處理中,哪些方法可以用于提升文本分類(lèi)、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?

題型:多項(xiàng)選擇題

反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?

題型:多項(xiàng)選擇題