北語23秋《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)1【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2023-11-12 20:34:09來源:admin瀏覽: 0 次

《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)1


共25道題 總分:100分


一、單選題(共15題,60分)


1.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為


A、2


B、4


C、6


D、8


2.在pandas中臟數(shù)據(jù)的典型表示有()


A、np.nan


B、*


C、?


D、no


3.利用pandas處理數(shù)據(jù)缺失值時(shí),用于丟棄缺失值的函數(shù)為


A、isnull


B、head


C、tail


D、dropna


4.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22}的中四分位數(shù)為


A、2


B、4


C、6


D、8


5.數(shù)據(jù)集{1,2,3,5,7,8,9}的中位數(shù)是


A、3


B、5


C、7


D、4


6.用訓(xùn)練好的LOF實(shí)例對數(shù)據(jù)進(jìn)行LOF分?jǐn)?shù)計(jì)算并排序的語句是


A、from sklean.neighbors import LocalOutlierFactor


B、clf=LocalOutlierFactor(n_neighbors=20)


C、y_pred=clf.fit_predict(X)


D、X_scores = clf.negative_outlier_factor_


7.利用pandas處理數(shù)據(jù)缺失值時(shí),用于發(fā)現(xiàn)重復(fù)值的函數(shù)為


A、isnull


B、duplicated


C、fillna


D、dropna


8.分類的目標(biāo)是


A、將一組對象分組以發(fā)現(xiàn)它們之間是否存在某種關(guān)系


B、從一組預(yù)定義的類中查找新對象所屬的類


C、提高數(shù)據(jù)標(biāo)簽利用效率


D、以上都不對


9.項(xiàng)集 S ={ },則項(xiàng)集S稱為


A、1項(xiàng)集


B、2項(xiàng)集


C、3項(xiàng)集


D、空集


10.訓(xùn)練隨機(jī)森林模型實(shí)例的語句是


A、from sklearn.tree import DecisionTreetClassifier


B、clf=DecisionTreetClassifier()


C、clf.fit(Xtrain,Ytrain)


D、predictions=clf.predict(Xtest)


11.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示


A、訓(xùn)練數(shù)據(jù)集


B、測試數(shù)據(jù)集


C、訓(xùn)練數(shù)據(jù)的類別標(biāo)簽數(shù)組


D、測試數(shù)據(jù)的類別標(biāo)簽數(shù)組


12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的上四分位數(shù)為


A、20


B、22


C、20.5


D、28


13.關(guān)聯(lián)規(guī)則 X→Y 表示中Y稱為


A、前件


B、后件


C、中間件


D、以上都不對


14.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的四分位差為


A、20 


B、22


C、20.5


D、18.5


15.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語句


A、from sklean.neighbors import LocalOutlierFactor


B、clf=LocalOutlierFactor(n_neighbors=20)


C、y_pred=clf.fit_predict(X)


D、X_scores = clf.negative_outlier_factor_


二、多選題(共5題,20分)


1.常用的描述統(tǒng)計(jì)分析方法包括


A、對比分析法


B、平均分析法


C、交叉分析法


D、以上都不對


2.關(guān)聯(lián)規(guī)則反映的是


A、可分類性


B、可分割性


C、事物之間相互依存性


D、事物之間相互關(guān)聯(lián)性


3.數(shù)據(jù)集中趨勢分析的常用指標(biāo)包括


A、平均值


B、中位數(shù)


C、眾數(shù)


D、四分位數(shù)


4.數(shù)據(jù)挖掘是適應(yīng)信息社會從海量數(shù)據(jù)中提取信息的需要而產(chǎn)生的新學(xué)科,也是交叉學(xué)科,包括


A、統(tǒng)計(jì)學(xué)


B、機(jī)器學(xué)習(xí)


C、數(shù)據(jù)庫


D、模式識別


5.常用的分類方法包括


A、樸素貝葉斯分類器


B、決策樹


C、KNN


D、以上都不對


三、判斷題(共5題,20分)


1.分箱法是針對連續(xù)的數(shù)值型數(shù)據(jù)中噪聲進(jìn)行處理


A、對


B、錯(cuò)


2.因?yàn)?Bayes 理論能夠幫助理解基于概率估計(jì)的復(fù)雜現(xiàn)況,所以它成為了數(shù)據(jù)挖掘和概率論的基礎(chǔ)


A、對


B、錯(cuò)


3.數(shù)據(jù)類型等級最高的是定類數(shù)據(jù)


A、對


B、錯(cuò)


4.分類算法的目的是找到數(shù)據(jù)的最優(yōu)擬合


A、對


B、錯(cuò)


5.數(shù)據(jù)類型等級最低的是定比數(shù)據(jù)


A、對


B、錯(cuò)




奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學(xué)習(xí)
詳情請咨詢QQ : 3230981406或微信:aopopenfd777

作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部