可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請?zhí)砑観Q:3230981406 微信:aopopenfd777
21春學期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學導論》在線作業(yè)
試卷總分:100 得分:100
第1題,單層感知機是由()層神經(jīng)元組成。
A、一
B、二
C、三
D、四
正確答案:
第2題,K-means聚類適用的數(shù)據(jù)類型是()。
A、數(shù)值型數(shù)據(jù)
B、字符型數(shù)據(jù)
C、語音數(shù)據(jù)
D、所有數(shù)據(jù)
正確答案:
第3題,在一元線性回歸中,通過最小二乘法求得的直線叫做回歸直線或()。
A、最優(yōu)回歸線
B、最優(yōu)分布線
C、最優(yōu)預測線
D、最佳分布線
正確答案:
第4題,例如將工資收入屬性值映射到[-1,1]或者[0,1]內屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構造
D、連續(xù)屬性離散化
正確答案:
答案來源:(www.),在k近鄰法中,選擇較小的k值時,學習的"近似誤差"會(),"估計誤差"會()。
A、減小,減小
B、減小,增大
C、增大,減小
D、增大,增大
正確答案:
第6題,聚類的最簡單最基本方法是()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:
第7題,設X={1,2,3}是頻繁項集,則可由X產(chǎn)生()個關聯(lián)規(guī)則。
A、4
B、5
C、6
D、7
正確答案:
第8題,在回歸分析中,自變量為(),因變量為()。
A、離散型變量,離散型變量
B、連續(xù)型變量,離散型變量
C、離散型變量,連續(xù)型變量
D、連續(xù)型變量,連續(xù)型變量
正確答案:
第9題,哪一項不屬于規(guī)范化的方法()
A、最小-最大規(guī)范化
B、零-均值規(guī)范化
C、小數(shù)定標規(guī)范化
D、中位數(shù)規(guī)范化
正確答案:
答案來源:(www.),單層感知機模型屬于()模型。
A、二分類的線性分類模型
B、二分類的非線性分類模型
C、多分類的線性分類模型
D、多分類的非線性分類模型
正確答案:
第11題,以下哪個不是處理缺失值的方法()
A、刪除記錄
B、按照一定原則補充
C、不處理
D、隨意填寫
正確答案:
答案來源:(www.),我們需要對已生成的樹()進行剪枝,將樹變得簡單,從而使它具有更好的泛化能力。
A、自上而下
B、自下而上
C、自左而右
D、自右而左
正確答案:
第13題,下列兩個變量之間的關系中,哪個是函數(shù)關系()。
A、人的性別和他的身高
B、人的工資與年齡
C、正方形的面積和邊長
D、溫度與濕度
正確答案:
第14題,變量之間的關系一般可以分為確定性關系與()。
A、非確定性關系
B、線性關系
C、函數(shù)關系
D、相關關系
正確答案:
答案來源:(www.),單層感知機擁有()層功能神經(jīng)元。
A、一
B、二
C、三
D、四
正確答案:
第16題,通過構造新的指標-線損率,當超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構造
D、連續(xù)屬性離散化
正確答案:
第17題,在一元線性回歸模型中,殘差項服從()分布。
A、泊松
B、正態(tài)
C、線性
D、非線性
正確答案:
第18題,層次聚類對給定的數(shù)據(jù)進行()的分解。
A、聚合
B、層次
C、分拆
D、復制
正確答案:
第19題,以下哪一項不是特征選擇常見的方法()
A、過濾式
B、封裝式
C、嵌入式
D、開放式
正確答案:
答案來源:(www.),對于k近鄰法,下列說法錯誤的是()。
A、不具有顯式的學習過程
B、適用于多分類任務
C、k值越大,分類效果越好
D、通常采用多數(shù)表決的分類決策規(guī)則
正確答案:
第21題,聚類的主要方法有()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:,B,C
第22題,數(shù)據(jù)科學具有哪些性質()
A、有效性
B、可用性
C、未預料
D、可理解
正確答案:,B,C,D
第23題,下面例子屬于分類的是()
A、檢測圖像中是否有人臉出現(xiàn)
B、對客戶按照貸款風險大小進行分類
C、識別手寫的數(shù)字
D、估計商場客流量
正確答案:,B,C
第24題,下列選項是BFR的對象是()
A、廢棄集
B、臨時集
C、壓縮集
D、留存集
正確答案:,C,D
答案來源:(www.),Apriori算法的計算復雜度受()影響。
A、支持度閾值
B、項數(shù)
C、事務數(shù)
D、事務平均寬度
正確答案:,B,C,D
第26題,相關性的分類,按照相關的方向可以分為()。
A、正相關
B、負相關
C、左相關
D、右相關
正確答案:,B
第27題,系統(tǒng)日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可擴展性
D、高效率
正確答案:,B,C
第28題,什么情況下結點不用劃分()
A、當前結點所包含的樣本全屬于同一類別
B、當前屬性集為空,或是所有樣本在所有屬性上取值相同
C、當前結點包含的樣本集為空
D、還有子集不能被基本正確分類
正確答案:,B,C
第29題,k近鄰法的基本要素包括()。
A、距離度量
B、k值的選擇
C、樣本大小
D、分類決策規(guī)則
正確答案:,B,D
答案來源:(www.),距離度量中的距離可以是()
A、歐式距離
B、曼哈頓距離
C、Lp距離
D、Minkowski距離
正確答案:,B,C,D
第31題,K-means算法采用貪心策略,通過迭代優(yōu)化來近似求解。
T、對
F、錯
更多答案下載:(www.)
第32題,隨著特征維數(shù)的增加,特征空間呈指數(shù)倍增長,樣本密度急劇減小,樣本稀疏。
T、對
F、錯
更多答案下載:(www.)
第33題,一般而言,信息增益越大,則意味著使用屬性a來進行劃分所獲得的"純度提升越大",因此我們可用信息增益來進行決策樹的最優(yōu)特征選擇。
T、對
F、錯
更多答案下載:(www.)
第34題,關聯(lián)規(guī)則可以用枚舉的方法產(chǎn)生。
T、對
F、錯
更多答案下載:(www.)
第35題,Jaccard系數(shù)只關心個體間共同具有的特征是否一致這個問題。
T、對
F、錯
更多答案下載:(www.)
第36題,特征選擇和降維都是用于減少特征數(shù)量,進而降低模型復雜度、防止過度擬合。
T、對
F、錯
更多答案下載:(www.)
第37題,由不同的距離度量所確定的最近鄰點是不同的
T、對
F、錯
更多答案下載:(www.)
第38題,Apriori算法是一種典型的關聯(lián)規(guī)則挖掘算法。
T、對
F、錯
更多答案下載:(www.)
第39題,決策樹的輸入為訓練集,輸出為以node為根結點的一棵決策樹
T、對
F、錯
更多答案下載:(www.)
第40題,K均值(K-Means)算法是密度聚類。
T、對
F、錯
正確答案:F
第41題,如果一個候選集至少有一個子集是非頻繁的,根據(jù)支持度的反單調屬性,這樣的候選項集肯定是非頻繁的。
T、對
F、錯
更多答案下載:(www.)
第42題,啤酒與尿布的故事是聚類分析的典型實例。
T、對
F、錯
正確答案:F
第43題,對于分類數(shù)據(jù),經(jīng)常使用表格,來統(tǒng)計各種類別的數(shù)據(jù)出現(xiàn)的頻率。
T、對
F、錯
更多答案下載:(www.)
第44題,標準BP算法是在讀取全部數(shù)據(jù)集后,對參數(shù)進行統(tǒng)一更新的算法。
T、對
F、錯
正確答案:F
第45題,特征的信息增益越大,則其越不重要。
T、對
F、錯
正確答案:F
第46題,為了盡可能正確分類訓練樣本,結點劃分過程將不斷重復,有時會造成決策樹分支過少,以致于把訓練集自身的一些特點當作所有數(shù)據(jù)都具有的一般性質而導致過擬合
T、對
F、錯
正確答案:F
第47題,不滿足給定評價度量的關聯(lián)規(guī)則是無趣的。
T、對
F、錯
正確答案:F
第48題,具有雙隱層的感知機足以用于解決任何復雜的分類問題。
T、對
F、錯
更多答案下載:(www.)
第49題,多層感知機的學習能力有限,只能處理線性可分的二分類問題。
T、對
F、錯
正確答案:F
答案來源:(www.),uBFR算法所使用數(shù)據(jù)中的簇在不同坐標下的標準差有所不同
T、對
F、錯
正確答案:

