A.使用袋外估計評價模型的分類誤差
B.變量重要性的度量
C.可解釋性強
D.隨機特征選取
您可能感興趣的試卷
你可能感興趣的試題
A.從樣本多的一類中,去掉一些樣本,使各類樣本數(shù)目接近
B.對樣本少的一類補充樣本,使各類樣本數(shù)目接近
C.對于二分類的情況,可以根據(jù)正反類的比例來調(diào)整閾值
D.利用集成學習的方法來處理
A.蛛網(wǎng)戰(zhàn)略
B.集中化戰(zhàn)略
C.結(jié)合-分離戰(zhàn)略
D.逐漸一體化戰(zhàn)略
A.大數(shù)據(jù)是數(shù)據(jù)量變積累達到質(zhì)變的結(jié)果
B.數(shù)據(jù)的產(chǎn)生需要經(jīng)歷很長時間
C.我們每個人都是數(shù)據(jù)的制造者
D.當今的世界,基本上一切都可以用數(shù)字表達,所以叫數(shù)字化的世界
A.容易過擬合
B.類別過多時容易出現(xiàn)錯誤
C.對缺失值不敏感
D.難以解釋
A.SVM的可解釋性較差,無法給出決策樹那樣的規(guī)則
B.SVM算法既可以解決線性問題,又可以解決非線性問題
C.SVM算法既可以處理小樣本問題,又可以處理大規(guī)模訓練樣本
D.任意核函數(shù)都可以將低維線性不可分數(shù)據(jù)映射到高維線性可分的情況,且效果沒有任何區(qū)別
A.季節(jié)性
B.地點
C.時間
D.趨勢
A.依據(jù)置信度,產(chǎn)生和選擇候選集
B.通過迭代找到數(shù)據(jù)庫中的所有頻繁項集
C.利用頻繁項集構(gòu)造出滿足用戶最小置信度的關(guān)聯(lián)規(guī)則
D.利用提升度找到強關(guān)聯(lián)規(guī)則
A.普查
B.抽樣
C.統(tǒng)計報表制度
D.重點調(diào)查
A.信息熵越大,樣本集純度越高
B.基尼指數(shù)越大,樣本集純度越高
C.信息熵越大,樣本集純度越低
D.基尼指數(shù)越大,樣本集純度越低
A.自由問答
B.傾向偏差詢問
C.發(fā)問式面談
D.限定選擇
最新試題
測度數(shù)據(jù)集中趨勢的指標可分為()兩大類。
以下對SVM算法的描述中正確的是()。
關(guān)聯(lián)分析一般分為兩個步驟,分別為()。
在以下條件下,需求可能缺乏彈性()。
下列可描述相關(guān)關(guān)系的圖表類型有()。
以下哪些聚類分析的方法是利用統(tǒng)計學定義的距離進行度量的?()
標準正態(tài)分布的期望值μ和標準差σ分別為()
下列哪些是搜集數(shù)據(jù)的組織方式()。
關(guān)于大數(shù)據(jù)的來源,以下理解正確的是()。
下列戰(zhàn)略中屬于合資經(jīng)營中的基本戰(zhàn)略的是()。