《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2
共25道題 總分:100分
一、單選題(共15題,60分)
1.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語(yǔ)句
A、from sklean.neighbors import LocalOutlierFactor
B、clf=LocalOutlierFactor(n_neighbors=20)
C、y_pred=clf.fit_predict(X)
D、X_scores = clf.negative_outlier_factor_
2.利用pandas處理數(shù)據(jù)缺失值時(shí),用于填充缺失值的函數(shù)為
A、isnull
B、head
C、fillna
D、dropna
3.決策樹(shù)生成過(guò)程中,以信息增益作為特征選擇準(zhǔn)則生成決策樹(shù)的算法是
A、ID3
B、C4.5
C、CART
D、以上都不對(duì)
4.決策樹(shù)的生成是一個(gè)遞歸過(guò)程,在決策樹(shù)基本算法中,滿(mǎn)足哪種情形,會(huì)導(dǎo)致遞歸過(guò)程返回停止
A、特征選擇次數(shù)超過(guò)一定限制
B、當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同
C、決策樹(shù)深度超過(guò)2
D、以上都不對(duì)
5.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示
A、訓(xùn)練數(shù)據(jù)集
B、測(cè)試數(shù)據(jù)集
C、訓(xùn)練數(shù)據(jù)的類(lèi)別標(biāo)簽數(shù)組
D、測(cè)試數(shù)據(jù)的類(lèi)別標(biāo)簽數(shù)組
6.以下不屬于大數(shù)據(jù)分析方法的是()
A、統(tǒng)計(jì)分析
B、數(shù)學(xué)模型
C、機(jī)器學(xué)習(xí)
D、人工智能
7.用訓(xùn)練好的孤立森林isolation forest實(shí)例對(duì)數(shù)據(jù)進(jìn)行異常值檢測(cè)的語(yǔ)句是
A、from sklean.ensemble import IsolationForest
B、LocalOutlierFactor
C、clf= IsolationForest(max_samples=100,random_state=0)
D、clf.fit(X_train)
E、y_pred=clf.fit_predict(X)
F、y_pred_test = clf.predict(X_test)
8.用訓(xùn)練好的模糊C均值聚類(lèi)實(shí)例對(duì)數(shù)據(jù)進(jìn)行聚類(lèi)操作的語(yǔ)句是
A、from fcmeans import FCM
B、fcm=FCM(n_clusters=3)
C、fcm.fit(X)
D、fcm_labels=fcm.u.argmax(axis=1)
9.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是
A、1
B、2
C、3
D、4
10.不包含任何項(xiàng)的項(xiàng)集是指
A、項(xiàng)
B、空集
C、超項(xiàng)集
D、子項(xiàng)集
11.利用Sklearn構(gòu)建KNN分類(lèi)器,用于KNN分類(lèi)器訓(xùn)練的程序?yàn)?/span>
A、knn.fit(X_train,y_train)
B、y_pred=knn.predict(X_test)
C、knn=KNeighborsClassifier(n_neighbors=k)
D、以上都不對(duì)
12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為
A、2
B、4
C、6
D、8
13.關(guān)聯(lián)規(guī)則 X→Y 表示中X稱(chēng)為
A、前件
B、后件
C、中間件
D、以上都不對(duì)
14.從軟件庫(kù)中導(dǎo)入模糊C均值聚類(lèi)算法類(lèi)的語(yǔ)句是
A、from fcmeans import FCM
B、fcm=FCM(n_clusters=3)
C、fcm.fit(X)
D、fcm_labels=fcm.u.argmax(axis=1)
15.如果一個(gè)項(xiàng)集包含K個(gè)項(xiàng),則該項(xiàng)集稱(chēng)為
A、項(xiàng)
B、空集
C、超項(xiàng)集
D、K項(xiàng)集
二、多選題(共5題,20分)
1.數(shù)據(jù)集中趨勢(shì)分析的常用指標(biāo)包括
A、平均值
B、中位數(shù)
C、眾數(shù)
D、四分位數(shù)
2.以下哪些是數(shù)據(jù)可視化圖表
A、柱狀圖
B、折線(xiàn)圖
C、餅圖
D、散點(diǎn)圖
3.分箱法包括
A、等深分箱
B、眾數(shù)分箱
C、等寬分箱
D、以上都不對(duì)
4.在數(shù)據(jù)清洗過(guò)程中,用于處理噪聲值的方法包括
A、蓋帽法
B、分箱法
C、聚類(lèi)法
D、以上都不對(duì)
5.定性數(shù)據(jù)包括
A、有序數(shù)據(jù)
B、無(wú)序數(shù)據(jù)
C、定類(lèi)等級(jí)數(shù)據(jù)
D、定性等級(jí)數(shù)據(jù)
三、判斷題(共5題,20分)
1.回歸算法的目的是尋找決策邊界
A、對(duì)
B、錯(cuò)
2.描述性數(shù)據(jù)分析屬于比較高級(jí)復(fù)雜的數(shù)據(jù)分析手段
A、對(duì)
B、錯(cuò)
3.蓋帽法是將某連續(xù)變量均值上下三倍標(biāo)準(zhǔn)差范圍外的數(shù)值全部刪除
A、對(duì)
B、錯(cuò)
4.定性數(shù)據(jù)包括離散數(shù)據(jù)和連續(xù)數(shù)據(jù)
A、對(duì)
B、錯(cuò)
5.等寬分箱方法是指每個(gè)分箱中樣本數(shù)量一致
A、對(duì)
B、錯(cuò)
奧鵬,國(guó)開(kāi),廣開(kāi),電大在線(xiàn),各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請(qǐng)咨詢(xún)QQ : 3230981406或微信:aopopenfd777