A.各處理?xiàng)l件下的樣本均來(lái)自正態(tài)總體
B.各處理?xiàng)l件下的樣本相互獨(dú)立
C.各處理?xiàng)l件下樣本的方差都相等
D.各處理?xiàng)l件下樣本均值相等,方差可以不等
您可能感興趣的試卷
你可能感興趣的試題
A.凝聚方式聚類
B.分解方式聚類
C.Q型聚類
D.R型聚類
A.ogistic回歸
B.SVM算法
C.CART決策樹
D.樸素貝葉斯
A.隨機(jī)森林算法的分類精度不會(huì)隨著決策樹數(shù)量的增加而提高
B.隨機(jī)森林算法對(duì)異常值和缺失值不敏感
C.隨機(jī)森林算法不需要考慮過(guò)擬合問題
D.決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機(jī)森林模型的分類效果越好
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹好
B.基于規(guī)則的分類器都對(duì)屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分
C.無(wú)法被用來(lái)產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.隨機(jī)取值
B.等距離散法
C.數(shù)值規(guī)約
D.等頻離散法
A.應(yīng)用邏輯回歸時(shí),異常值會(huì)對(duì)模型造成很大的干擾
B.邏輯回歸的自變量必須是分類變量,因此要對(duì)連續(xù)型變量進(jìn)行離散化處理
C.邏輯回歸對(duì)模型中自變量的多重共線性較為敏感
D.邏輯回歸屬于分類算法
A.預(yù)測(cè)準(zhǔn)確度
B.召回率
C.模型描述的簡(jiǎn)潔度
D.F1-Score
A.直接刪除
B.使用屬性的平均值填充空缺值
C.使用一個(gè)全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
A.兩變量獨(dú)立,兩者的皮爾森相關(guān)系數(shù)必然等于0
B.兩變量皮爾森相關(guān)系數(shù)不等于0,兩者必然不獨(dú)立
C.皮爾森相關(guān)系數(shù)是否等于零,不能指明兩變量是否獨(dú)立
D.兩變量不獨(dú)立,兩者的皮爾森相關(guān)系數(shù)必然不等于0
A.同心多元化
B.水平多元化
C.集團(tuán)多元化
D.相關(guān)多元化
最新試題
測(cè)度數(shù)據(jù)集中趨勢(shì)的指標(biāo)可分為()兩大類。
下列哪些是搜集數(shù)據(jù)的組織方式()。
以下對(duì)于KNN算法的描述中正確的是()。
對(duì)于同一個(gè)樣本集,下列說(shuō)法正確是()。
下列可描述相關(guān)關(guān)系的圖表類型有()。
在訓(xùn)練樣本集中,對(duì)于訓(xùn)練樣本數(shù)目不均衡的情況,處理方法妥當(dāng)?shù)氖牵ǎ?/p>
決策樹模型的缺點(diǎn)有()。
面談?wù){(diào)查的詢問方式一般有()。
當(dāng)買方資產(chǎn)專用性高,而賣方資產(chǎn)專用性低時(shí),賣方企業(yè)選擇的戰(zhàn)略不是以下哪幾項(xiàng)()。
戰(zhàn)略集團(tuán)的三種用途()