A.準(zhǔn)確率
B.精確率
C.召回率
D.F1分?jǐn)?shù)
E.mAP
您可能感興趣的試卷
你可能感興趣的試題
A.RNN
B.LSTM
C.GRU
D.TCN
E.XGBoost
A.隔離森林
B.自編碼器
C.GAN
D.VAE
E.HMM
A.FGSM
B.PGD
C.CW
D.DeepFool
E.JSMA
A.SSIM
B.LPIPS
C.FID
D.KID
E.PSNR
A.GCN
B.GraphSAGE
C.BERT
D.CNN
E.GAT
最新試題
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過(guò)擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
數(shù)量歸約中無(wú)參數(shù)的方法一般使用()。
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在自然語(yǔ)言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類(lèi)的性能()?
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類(lèi)。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?