A.睡眠學(xué)習(xí)
B.深度學(xué)習(xí)
C.監(jiān)督式學(xué)習(xí)
D.非監(jiān)督式學(xué)習(xí)
E.強(qiáng)化學(xué)習(xí)
您可能感興趣的試卷
你可能感興趣的試題
A.固定判別網(wǎng)絡(luò),訓(xùn)練生成網(wǎng)絡(luò)
B.生成網(wǎng)絡(luò)與判別網(wǎng)絡(luò)一起同時(shí)訓(xùn)練
C.生成網(wǎng)絡(luò)與判別網(wǎng)絡(luò)皆固定
D.固定生成網(wǎng)絡(luò),訓(xùn)練判別網(wǎng)絡(luò)
E.建立生成模型的目標(biāo),就是希望經(jīng)由機(jī)器學(xué)習(xí)的技術(shù)讓計(jì)算機(jī)產(chǎn)生跟真實(shí)數(shù)據(jù)非常接
A.生成對(duì)抗網(wǎng)絡(luò)英文簡(jiǎn)稱GAN
B.網(wǎng)絡(luò)中的生成者稱為生成器(generator)
C.網(wǎng)絡(luò)中的判別者稱為判別器(discriminator)
D.生成器的輸入點(diǎn)位于潛在空間(latentspace)
E.判別器的輸出點(diǎn)位于潛在空間(latentspace)
A.市場(chǎng)營(yíng)銷
B.城市規(guī)劃
C.犯罪分析
D.社群網(wǎng)絡(luò)分析
E.人員配置
A.單一連接法(SingleLinkageMethod)
B.完全連接法(CompleteLinkageMethod)
C.余弦相似度(CosineSimilarity)
D.平均連接法(AverageLinkageMethod)
E.中心點(diǎn)連接法(CentroidLinkageMethod)
A.聚類(clustering)是一種非監(jiān)督式學(xué)習(xí)
B.聚類(clustering)是一種監(jiān)督式學(xué)習(xí)
C.使用的數(shù)據(jù)不需要包含類別卷標(biāo)
D.使用的數(shù)據(jù)需要包含類別卷標(biāo)
E.常見的基本聚類方法有K-平均算法和階層式聚類
最新試題
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
依存句法分析(DependencyParsing)主要用于分析什么()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
反向傳播算法的主要目的是什么()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
屬性值約束主要有()。
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
反向傳播算法的基本原理是基于什么()?