可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請?zhí)砑観Q:3230981406 微信:aopopenfd777
[南開大學]20秋學期(1709、1803、1809、1903、1909、2003、2009 )《數(shù)據(jù)科學導論》在線作業(yè)
試卷總分:100 得分:100
第1題,某商品的產(chǎn)量(X,件)與單位成本(Y,元/件)之間的回歸方程為^Y=100-1.2X,這說明()。
A、產(chǎn)量每增加一臺,單位成本增加100元
B、產(chǎn)量每增加一臺,單位成本減少1.2元
C、產(chǎn)量每增加一臺,單位成本平均減少1.2元
D、產(chǎn)量每增加一臺,單位平均增加100元
正確答案:
第2題,置信度(confidence)是衡量興趣度度量( )的指標。
A、簡潔性
B、確定性
C、實用性
D、新穎性
正確答案:
第3題,實體識別屬于以下哪個過程()
A、數(shù)據(jù)清洗
B、數(shù)據(jù)集成
C、數(shù)據(jù)規(guī)約
D、數(shù)據(jù)變換
正確答案:
第4題,在一元線性回歸模型中,殘差項服從()分布。
A、泊松
B、正態(tài)
C、線性
D、非線性
正確答案:
答案來源:(www.),手肘法的核心指標是()。
A、SES
B、SSE
C、RMSE
D、MSE
正確答案:
第6題,單層感知機模型屬于()模型。
A、二分類的線性分類模型
B、二分類的非線性分類模型
C、多分類的線性分類模型
D、多分類的非線性分類模型
正確答案:
第7題,某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()
A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
B、聚類
C、分類
D、自然語言處理
正確答案:
第8題,下列兩個變量之間的關(guān)系中,哪個是函數(shù)關(guān)系()。
A、人的性別和他的身高
B、人的工資與年齡
C、正方形的面積和邊長
D、溫度與濕度
正確答案:
第9題,聚類是一種()。
A、有監(jiān)督學習
B、無監(jiān)督學習
C、強化學習
D、半監(jiān)督學習
正確答案:
答案來源:(www.),以下哪些不是缺失值的影響()
A、數(shù)據(jù)建模將丟失大量有用信息
B、數(shù)據(jù)建模的不確定性更加顯著
C、對整體總是不產(chǎn)生什么作用
D、包含空值的數(shù)據(jù)可能會使建模過程陷入混亂,導致異常的輸出
正確答案:
第11題,多層感知機是由()層神經(jīng)元組成。
A、二
B、三
C、大于等于二層
D、大于等于三層
正確答案:
答案來源:(www.),以下哪一項不屬于數(shù)據(jù)變換()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性合并
D、連續(xù)屬性離散化
正確答案:
第13題,以下哪一項不是特征工程的子問題()
A、特征創(chuàng)建
B、特征提取
C、特征選擇
D、特征識別
正確答案:
第14題,哪一項不屬于規(guī)范化的方法()
A、最小-最大規(guī)范化
B、零-均值規(guī)范化
C、小數(shù)定標規(guī)范化
D、中位數(shù)規(guī)范化
正確答案:
答案來源:(www.),在k近鄰法中,選擇較小的k值時,學習的"近似誤差"會(),"估計誤差"會()。
A、減小,減小
B、減小,增大
C、增大,減小
D、增大,增大
正確答案:
第16題,在回歸分析中,自變量為(),因變量為()。
A、離散型變量,離散型變量
B、連續(xù)型變量,離散型變量
C、離散型變量,連續(xù)型變量
D、連續(xù)型變量,連續(xù)型變量
正確答案:
第17題,具有偏差和至少()個S型隱含層加上一個()輸出層的網(wǎng)絡能夠逼近任何有理數(shù)。
A、1,線性
B、2,線性
C、1,非線性
D、2,非線性
正確答案:
第18題,以下屬于關(guān)聯(lián)分析的是( )
A、CPU性能預測
B、購物籃分析
C、自動判斷鳶尾花類別
D、股票趨勢建模
正確答案:
第19題,通過構(gòu)造新的指標-線損率,當超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:
答案來源:(www.),我們需要對已生成的樹()進行剪枝,將樹變得簡單,從而使它具有更好的泛化能力。
A、自上而下
B、自下而上
C、自左而右
D、自右而左
正確答案:
第21題,多層感知機的學習過程包含()。
A、信號的正向傳播
B、信號的反向傳播
C、誤差的正向傳播
D、誤差的反向傳播
正確答案:,D
第22題,下面例子屬于分類的是()
A、檢測圖像中是否有人臉出現(xiàn)
B、對客戶按照貸款風險大小進行分類
C、識別手寫的數(shù)字
D、估計商場客流量
正確答案:,B,C
第23題,距離度量中的距離可以是()
A、歐式距離
B、曼哈頓距離
C、Lp距離
D、Minkowski距離
正確答案:,B,C,D
第24題,Apriori算法的計算復雜度受()影響。
A、支持度閾值
B、項數(shù)
C、事務數(shù)
D、事務平均寬度
正確答案:,B,C,D
答案來源:(www.),下列選項是BFR的對象是()
A、廢棄集
B、臨時集
C、壓縮集
D、留存集
正確答案:,C,D
第26題,系統(tǒng)日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可擴展性
D、高效率
正確答案:,B,C
第27題,一元回歸參數(shù)估計的參數(shù)求解方法有()。
A、最大似然法
B、距估計法
C、最小二乘法
D、歐式距離法
正確答案:,B,C
第28題,k近鄰法的基本要素包括()。
A、距離度量
B、k值的選擇
C、樣本大小
D、分類決策規(guī)則
正確答案:,B,D
第29題,K-means聚類中K值選取的方法是()。
A、密度分類法
B、手肘法
C、大腿法
D、隨機選取
正確答案:,B
答案來源:(www.),聚類的主要方法有()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:,B,C
第31題,決策樹分類時將該結(jié)點的實例強行分到條件概率大的那一類去
T、對
F、錯
更多答案下載:(www.)
第32題,獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。
T、對
F、錯
正確答案:F
第33題,階躍函數(shù)具有不光滑、不連續(xù)的特點。
T、對
F、錯
更多答案下載:(www.)
第34題,sigmoid函數(shù)屬于階躍函數(shù),是神經(jīng)網(wǎng)絡中常見的激活函數(shù)。
T、對
F、錯
正確答案:F
第35題,選擇較小的k值,相當于用較小的鄰域中的訓練實例進行預測,學習的"近似誤差"會減小,"估計誤差"會增大,預測結(jié)果會對近鄰的點實例點非常敏感。
T、對
F、錯
更多答案下載:(www.)
第36題,子集產(chǎn)生本質(zhì)上是一個搜索過程,該過程可以從空集、隨機產(chǎn)生的一個特征子集或者整個特征集開始。
T、對
F、錯
更多答案下載:(www.)
第37題,決策樹內(nèi)部結(jié)點表示一個類,葉結(jié)點表示一個特征或?qū)傩?br/>T、對
F、錯
正確答案:F
第38題,樸素貝葉斯分類器有簡單、高效、健壯的特點,但某些屬性可能會降低分類器的性能
T、對
F、錯
更多答案下載:(www.)
第39題,信息熵越小,樣本結(jié)合的純度越低
T、對
F、錯
正確答案:F
第40題,決策樹學習的算法通常是一個遞歸地選擇最優(yōu)特征,并根據(jù)該特征對訓練數(shù)據(jù)進行分割,使得各個子數(shù)據(jù)集有一個最好的分類的過程,這一過程對應著特征空間的劃分,也對應著決策樹的構(gòu)建
T、對
F、錯
更多答案下載:(www.)
第41題,當維度增加時,特征空間的體積增加得很快,使得可用的數(shù)據(jù)變得稠密。
T、對
F、錯
正確答案:F
第42題,數(shù)據(jù)分析師的任務:用模型來回答具體問題,了解數(shù)據(jù),其來源和結(jié)構(gòu)
T、對
F、錯
正確答案:F
第43題,集中趨勢能夠表明在一定條件下數(shù)據(jù)的獨特性質(zhì)與差異
T、對
F、錯
正確答案:F
第44題,對于分類數(shù)據(jù),經(jīng)常使用表格,來統(tǒng)計各種類別的數(shù)據(jù)出現(xiàn)的頻率。
T、對
F、錯
更多答案下載:(www.)
第45題,一般而言,信息增益越大,則意味著使用屬性a來進行劃分所獲得的"純度提升越大",因此我們可用信息增益來進行決策樹的最優(yōu)特征選擇。
T、對
F、錯
更多答案下載:(www.)
第46題,關(guān)聯(lián)規(guī)則可以被廣泛地應用于通信、金融、交通、健康醫(yī)療和Web用戶行為分析等領(lǐng)域。
T、對
F、錯
更多答案下載:(www.)
第47題,當訓練集較大的時候,標準BP算法通常會更快的獲得更好的解。
T、對
F、錯
更多答案下載:(www.)
第48題,增加神經(jīng)元的個數(shù),無法提高神經(jīng)網(wǎng)絡的訓練精度。
T、對
F、錯
正確答案:F
第49題,K-means算法采用貪心策略,通過迭代優(yōu)化來近似求解。
T、對
F、錯
更多答案下載:(www.)
答案來源:(www.),使用SVD方法進行圖像壓縮不可以保留圖像的重要特征。
T、對
F、錯
正確答案:F

