可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請?zhí)砑観Q:3230981406 微信:aopopenfd777
21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)
試卷總分:100 得分:100
第1題,通過構(gòu)造新的指標(biāo)-線損率,當(dāng)超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:
第2題,聚類的最簡單最基本方法是()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:
第3題,在回歸分析中,自變量為(),因變量為()。
A、離散型變量,離散型變量
B、連續(xù)型變量,離散型變量
C、離散型變量,連續(xù)型變量
D、連續(xù)型變量,連續(xù)型變量
正確答案:
第4題,以下哪一項不是特征工程的子問題()
A、特征創(chuàng)建
B、特征提取
C、特征選擇
D、特征識別
正確答案:
答案來源:(www.),對于k近鄰法,下列說法錯誤的是()。
A、不具有顯式的學(xué)習(xí)過程
B、適用于多分類任務(wù)
C、k值越大,分類效果越好
D、通常采用多數(shù)表決的分類決策規(guī)則
正確答案:
第6題,通過變量標(biāo)準(zhǔn)化計算得到的回歸方程稱為()。
A、標(biāo)準(zhǔn)化回歸方程
B、標(biāo)準(zhǔn)化偏回歸方程
C、標(biāo)準(zhǔn)化自回歸方程
D、標(biāo)準(zhǔn)化多回歸方程
正確答案:
第7題,在k近鄰法中,選擇較小的k值時,學(xué)習(xí)的"近似誤差"會(),"估計誤差"會()。
A、減小,減小
B、減小,增大
C、增大,減小
D、增大,增大
正確答案:
第8題,Apriori算法的加速過程依賴于以下哪個策略( )
A、抽樣
B、剪枝
C、緩沖
D、并行
正確答案:
第9題,下列兩個變量之間的關(guān)系中,哪個是函數(shù)關(guān)系()。
A、人的性別和他的身高
B、人的工資與年齡
C、正方形的面積和邊長
D、溫度與濕度
正確答案:
答案來源:(www.),考慮下面的頻繁3-項集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個項,采用 合并策略,由候選產(chǎn)生過程得到4-項集不包含()
A、1,2,3,4
B、1,2,3,5
C、1,2,4,5
D、1,3,4,5
正確答案:
第11題,例如將工資收入屬性值映射到[-1,1]或者[0,1]內(nèi)屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:
答案來源:(www.),下面不是分類的常用方法的有()
A、K近鄰法
B、樸素貝葉斯
C、決策樹
D、條件隨機場
正確答案:
第13題,根據(jù)映射關(guān)系的不同可以分為線性回歸和()。
A、對數(shù)回歸
B、非線性回歸
C、邏輯回歸
D、多元回歸
正確答案:
第14題,實體識別的常見形式()
A、同名異義
B、異名同義
C、單位不統(tǒng)一
D、屬性不同
正確答案:
答案來源:(www.),BFR聚類用于在()歐氏空間中對數(shù)據(jù)進行聚類
A、高維
B、中維
C、低維
D、中高維
正確答案:
第16題,在有統(tǒng)計學(xué)意義的前提下,標(biāo)準(zhǔn)化偏回歸系數(shù)的絕對值越大,說明相應(yīng)的自變量對y的作用()。
A、越小
B、越大
C、無關(guān)
D、不確定
正確答案:
第17題,層次聚類對給定的數(shù)據(jù)進行()的分解。
A、聚合
B、層次
C、分拆
D、復(fù)制
正確答案:
第18題,某商品的產(chǎn)量(X,件)與單位成本(Y,元/件)之間的回歸方程為^Y=100-1.2X,這說明()。
A、產(chǎn)量每增加一臺,單位成本增加100元
B、產(chǎn)量每增加一臺,單位成本減少1.2元
C、產(chǎn)量每增加一臺,單位成本平均減少1.2元
D、產(chǎn)量每增加一臺,單位平均增加100元
正確答案:
第19題,單層感知機模型屬于()模型。
A、二分類的線性分類模型
B、二分類的非線性分類模型
C、多分類的線性分類模型
D、多分類的非線性分類模型
正確答案:
答案來源:(www.),層次聚類適合規(guī)模較()的數(shù)據(jù)集
A、大
B、中
C、小
D、所有
正確答案:
第21題,數(shù)據(jù)科學(xué)具有哪些性質(zhì)()
A、有效性
B、可用性
C、未預(yù)料
D、可理解
正確答案:,B,C,D
第22題,下列選項是BFR的對象是()
A、廢棄集
B、臨時集
C、壓縮集
D、留存集
正確答案:,C,D
第23題,關(guān)聯(lián)規(guī)則的評價度量主要有)。
A、支持度
B、置信度
C、準(zhǔn)確率
D、錯誤率
正確答案:,B
第24題,Apriori算法的計算復(fù)雜度受()影響。
A、支持度閾值
B、項數(shù)
C、事務(wù)數(shù)
D、事務(wù)平均寬度
正確答案:,B,C,D
答案來源:(www.),k近鄰法的基本要素包括()。
A、距離度量
B、k值的選擇
C、樣本大小
D、分類決策規(guī)則
正確答案:,B,D
第26題,聚類的主要方法有()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:,B,C
第27題,K-means聚類中K值選取的方法是()。
A、密度分類法
B、手肘法
C、大腿法
D、隨機選取
正確答案:,B
第28題,多層感知機的學(xué)習(xí)過程包含()。
A、信號的正向傳播
B、信號的反向傳播
C、誤差的正向傳播
D、誤差的反向傳播
正確答案:,D
第29題,系統(tǒng)日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可擴展性
D、高效率
正確答案:,B,C
答案來源:(www.),什么情況下結(jié)點不用劃分()
A、當(dāng)前結(jié)點所包含的樣本全屬于同一類別
B、當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同
C、當(dāng)前結(jié)點包含的樣本集為空
D、還有子集不能被基本正確分類
正確答案:,B,C
第31題,Jaccard系數(shù)只關(guān)心個體間共同具有的特征是否一致這個問題。
T、對
F、錯
更多答案下載:(www.)
第32題,關(guān)聯(lián)規(guī)則可以用枚舉的方法產(chǎn)生。
T、對
F、錯
更多答案下載:(www.)
第33題,給定一組點,使用點之間的距離概念,將點分組為若干簇,不同簇的成員可以相同。
T、對
F、錯
正確答案:F
第34題,利用K近鄰法進行分類時,使用不同的距離度量所確定的最近鄰點都是相同的。
T、對
F、錯
正確答案:F
第35題,多層感知機的學(xué)習(xí)能力有限,只能處理線性可分的二分類問題。
T、對
F、錯
正確答案:F
第36題,決策樹分類時將該結(jié)點的實例強行分到條件概率大的那一類去
T、對
F、錯
更多答案下載:(www.)
第37題,特征選擇和降維都是用于減少特征數(shù)量,進而降低模型復(fù)雜度、防止過度擬合。
T、對
F、錯
更多答案下載:(www.)
第38題,當(dāng)特征為離散型時,可以使用信息增益作為評價統(tǒng)計量。
T、對
F、錯
更多答案下載:(www.)
第39題,K-means算法采用貪心策略,通過迭代優(yōu)化來近似求解。
T、對
F、錯
更多答案下載:(www.)
第40題,當(dāng)維度增加時,特征空間的體積增加得很快,使得可用的數(shù)據(jù)變得稠密。
T、對
F、錯
正確答案:F
第41題,信息熵越小,樣本結(jié)合的純度越低
T、對
F、錯
正確答案:F
第42題,隨著特征維數(shù)的增加,特征空間呈指數(shù)倍增長,樣本密度急劇減小,樣本稀疏。
T、對
F、錯
更多答案下載:(www.)
第43題,k值增大意味著整體模型變得復(fù)雜。
T、對
F、錯
正確答案:F
第44題,當(dāng)訓(xùn)練集較大的時候,標(biāo)準(zhǔn)BP算法通常會更快的獲得更好的解。
T、對
F、錯
更多答案下載:(www.)
第45題,平均減少的不純度越大,則特征重要度越高。
T、對
F、錯
更多答案下載:(www.)
第46題,不滿足給定評價度量的關(guān)聯(lián)規(guī)則是無趣的。
T、對
F、錯
正確答案:F
第47題,uBFR算法所使用數(shù)據(jù)中的簇在不同坐標(biāo)下的標(biāo)準(zhǔn)差有所不同
T、對
F、錯
正確答案:
第48題,K-means聚類是發(fā)現(xiàn)給定數(shù)據(jù)集的K個簇的算法。
T、對
F、錯
更多答案下載:(www.)
第49題,對于項集來說,置信度沒有意義。
T、對
F、錯
更多答案下載:(www.)
答案來源:(www.),每個類的先驗概率可以通過屬于該類的訓(xùn)練記錄所占的比例來估計。
T、對
F、錯
更多答案下載:(www.)

