A.定義域中可以有元素不用對(duì)應(yīng)到值域中的元素
B.值域中可以有元素不用被對(duì)應(yīng)到
C.定義域的每個(gè)元素都必須有對(duì)應(yīng)值在值域
D.定義域的1個(gè)元素不可以有多個(gè)對(duì)應(yīng)元素出現(xiàn)在值域
E.值域中的1個(gè)元素可以被多個(gè)定義域中的元素所對(duì)應(yīng)
您可能感興趣的試卷
你可能感興趣的試題
A.CNN
B.LeNet
C.NN
D.GoogleNet
E.RNN
A.Kai-FuLee
B.GeoffreyHinton
C.YoshuaBengio
D.AndrewNg
E.YangLeCun
A.約10萬(wàn)
B.約50萬(wàn)
C.約100萬(wàn)
D.約130萬(wàn)
E.約200萬(wàn)
A.當(dāng)一個(gè)深度神經(jīng)網(wǎng)絡(luò)以卷積層為主體時(shí),稱為卷積神經(jīng)網(wǎng)絡(luò)
B.需要對(duì)特征向量進(jìn)行轉(zhuǎn)換,經(jīng)常用的是全連接層
C.歸一化指數(shù)層的作用用于完成多類(lèi)線性分類(lèi)器中的歸一化指數(shù)函數(shù)的計(jì)算
D.常用的非線性函數(shù)為邏輯函數(shù)、雙曲線正切函數(shù)、線性整流函數(shù)
E.以上皆是
A.收集多樣化的樣本
B.減少特征個(gè)數(shù)
C.交叉驗(yàn)證
D.正規(guī)化
E.內(nèi)插法
最新試題
模型微調(diào)中的提示學(xué)習(xí)是指:()。
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在自然語(yǔ)言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
反向傳播算法的基本原理是基于什么()?