A.學(xué)習(xí)(訓(xùn)練)
B.把問題化成函數(shù)的形式
C.打造一個(gè)函數(shù)學(xué)習(xí)機(jī)
D.收集歷史資料
E.先問一個(gè)問題
您可能感興趣的試卷
你可能感興趣的試題
A.定義域中可以有元素不用對(duì)應(yīng)到值域中的元素
B.值域中可以有元素不用被對(duì)應(yīng)到
C.定義域的每個(gè)元素都必須有對(duì)應(yīng)值在值域
D.定義域的1個(gè)元素不可以有多個(gè)對(duì)應(yīng)元素出現(xiàn)在值域
E.值域中的1個(gè)元素可以被多個(gè)定義域中的元素所對(duì)應(yīng)
A.CNN
B.LeNet
C.NN
D.GoogleNet
E.RNN
A.Kai-FuLee
B.GeoffreyHinton
C.YoshuaBengio
D.AndrewNg
E.YangLeCun
A.約10萬
B.約50萬
C.約100萬
D.約130萬
E.約200萬
A.當(dāng)一個(gè)深度神經(jīng)網(wǎng)絡(luò)以卷積層為主體時(shí),稱為卷積神經(jīng)網(wǎng)絡(luò)
B.需要對(duì)特征向量進(jìn)行轉(zhuǎn)換,經(jīng)常用的是全連接層
C.歸一化指數(shù)層的作用用于完成多類線性分類器中的歸一化指數(shù)函數(shù)的計(jì)算
D.常用的非線性函數(shù)為邏輯函數(shù)、雙曲線正切函數(shù)、線性整流函數(shù)
E.以上皆是
最新試題
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
反向傳播算法的基本原理是基于什么()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
在自然語言處理中,哪些方法可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
在自然語言處理中,哪些技術(shù)適用于提升問答系統(tǒng)的性能()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。