北語(yǔ)23秋《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)4【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2023-11-12 20:30:48來(lái)源:admin瀏覽: 0 次

《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)4


共25道題 總分:100分


一、單選題(共15題,60分)


1.用訓(xùn)練好的隨機(jī)森林對(duì)樣本進(jìn)行類別預(yù)測(cè)的語(yǔ)句是


A、from sklearn.tree import DecisionTreetClassifier


B、clf=DecisionTreetClassifier()


C、clf.fit(Xtrain,Ytrain)


D、predictions=clf.predict(Xtest)


2.以下不是數(shù)據(jù)可視化工具庫(kù)的是()


A、pandas


B、matplotlib


C、matlab


D、seaborn


3.數(shù)據(jù)集{1,2,3,5,7,8,9}的中位數(shù)是


A、3


B、5


C、7


D、4


4.下面代碼能夠提取模糊C均值聚類算法類簇中心特征的語(yǔ)句是


A、from fcmeans import FCM


B、fcm=FCM(n_clusters=4)


C、fcm.fit(X)


D、fcm_centers=fcm.cednters


5.局部異常因子(LOF)算法屬于


A、基于統(tǒng)計(jì)的異常值檢測(cè)方法


B、基于密度的異常檢測(cè)方法


C、基于聚類的異常值檢測(cè)


D、基于決策樹的異常檢測(cè)


6.邏輯回歸中的“邏輯”是指


A、規(guī)則


B、Sigmoid函數(shù)


C、學(xué)者名字


D、以上都不對(duì)


7.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是


A、1


B、2


C、3


D、4


8.利用pandas處理數(shù)據(jù)缺失值時(shí),用于發(fā)現(xiàn)缺失值的函數(shù)為


A、isnull


B、head


C、tail


D、info


9.利用pandas處理數(shù)據(jù)缺失值時(shí),用于填充缺失值的函數(shù)為


A、isnull


B、head


C、fillna


D、dropna


10.關(guān)聯(lián)規(guī)則最基礎(chǔ)的元素是


A、項(xiàng)


B、項(xiàng)集


C、超項(xiàng)集


D、子項(xiàng)集


11.from sklearn.neighbors import KNeighborsClassifiernknn = KNeighborsClassifier(n_neighbors=3) n上面代碼中可以看出,KNN分類器的k值設(shè)置為


A、1


B、2


C、3


D、4


12.決策樹生成過(guò)程中,以信息增益率作為特征選擇準(zhǔn)則生成決策樹的算法是


A、ID3


B、C4.5


C、CART


D、以上都不對(duì)


13.決策樹生成過(guò)程的停止條件


A、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無(wú)需劃分


B、當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無(wú)法劃分


C、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分


D、以上都不對(duì)


14.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語(yǔ)句


A、from sklean.neighbors import LocalOutlierFactor


B、clf=LocalOutlierFactor(n_neighbors=20)


C、y_pred=clf.fit_predict(X)


D、X_scores = clf.negative_outlier_factor_


15.處理缺失值的方法有刪除和()


A、替換


B、復(fù)制


C、修改


D、屏蔽


二、多選題(共5題,20分)


1.常用的分類方法包括


A、樸素貝葉斯分類器


B、決策樹


C、KNN


D、以上都不對(duì)


2.定性數(shù)據(jù)包括


A、有序數(shù)據(jù)


B、無(wú)序數(shù)據(jù)


C、定類等級(jí)數(shù)據(jù)


D、定性等級(jí)數(shù)據(jù)


3.數(shù)據(jù)挖掘(Data Mining)則是知識(shí)發(fā)現(xiàn)(KDD)的核心部分,它指的是從數(shù)據(jù)集合中自動(dòng)抽取隱藏在數(shù)據(jù)中的那些有用信息的非平凡過(guò)程,這些信息的表現(xiàn)形式為


A、規(guī)則


B、概念


C、規(guī)律


D、模式


4.異常檢測(cè)的難點(diǎn)


A、不能明確定義何為正常,何為異常,在某些領(lǐng)域正常和異常并沒(méi)有明確的界限


B、數(shù)據(jù)本身存在噪聲,致使噪聲和異常難以區(qū)分


C、正常行為并不是一成不變,也會(huì)隨著時(shí)間演化,如正常用戶被盜號(hào)之后,進(jìn)行一系列的非法操作


D、難以獲取標(biāo)記數(shù)據(jù),沒(méi)有數(shù)據(jù),再好的算法也是無(wú)用


5.分箱法包括


A、等深分箱


B、眾數(shù)分箱


C、等寬分箱


D、以上都不對(duì)


三、判斷題(共5題,20分)


1.眾數(shù)在一組數(shù)據(jù)中只有一個(gè)


A、對(duì)


B、錯(cuò)


2.因?yàn)?Bayes 理論能夠幫助理解基于概率估計(jì)的復(fù)雜現(xiàn)況,所以它成為了數(shù)據(jù)挖掘和概率論的基礎(chǔ)


A、對(duì)


B、錯(cuò)


3.下四分位數(shù)是指 數(shù)據(jù)從大到小排列排在第25%位置的數(shù)字,即最小的四分位數(shù)(下四分位數(shù))


A、對(duì)


B、錯(cuò)


4.高層次數(shù)據(jù)無(wú)法向低層次轉(zhuǎn)化,會(huì)出現(xiàn)F


A、對(duì)


B、錯(cuò)


5.描述性數(shù)據(jù)分析屬于比較高級(jí)復(fù)雜的數(shù)據(jù)分析手段


A、對(duì)


B、錯(cuò)




奧鵬,國(guó)開,廣開,電大在線,各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請(qǐng)咨詢QQ : 3230981406或微信:aopopenfd777

作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部