21秋學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)(標(biāo)準(zhǔn)答案)

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2021/11/6 21:50:26來(lái)源:admin瀏覽: 59 次

需要答案請(qǐng)加QQ:3230981406 微信:aopopenfd777

可做奧鵬全部院校在線作業(yè)、離線作業(yè)、畢業(yè)論文


21秋學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.只有非零值才重要的二元屬性被稱作:( ),其中購(gòu)物籃數(shù)據(jù)就屬于這種屬性。

A.計(jì)數(shù)屬性

B.離散屬性

C.非對(duì)稱的二元屬性#對(duì)稱屬性

答案:C


2.BFR聚類是用于處理數(shù)據(jù)集()的k-means變體。

A.大

B.中

C.小

D.所有

答案:A


3.多層感知機(jī)是由()層神經(jīng)元組成。

A.二

B.三

C.大于等于二層

D.大于等于三層

答案:D


4.以下屬于關(guān)聯(lián)分析的是( )

A.CPU性能預(yù)測(cè)

B.購(gòu)物籃分析

C.自動(dòng)判斷鳶尾花類別

D.股票趨勢(shì)建模

答案:B


5.聚類是一種()。

A.有監(jiān)督學(xué)習(xí)

B.無(wú)監(jiān)督學(xué)習(xí)

C.強(qiáng)化學(xué)習(xí)

D.半監(jiān)督學(xué)習(xí)

答案:B


6.在回歸分析中,自變量為(),因變量為()。

A.離散型變量,離散型變量

B.連續(xù)型變量,離散型變量

C.離散型變量,連續(xù)型變量

D.連續(xù)型變量,連續(xù)型變量


7.在k近鄰法中,選擇較小的k值時(shí),學(xué)習(xí)的“近似誤差”會(huì)(),“估計(jì)誤差”會(huì)()。

A.減小,減小

B.減小,增大

C.增大,減小

D.增大,增大


8.利用最小二乘法對(duì)多元線性回歸進(jìn)行參數(shù)估計(jì)時(shí),其目標(biāo)為()。

A.最小化方差#最小化標(biāo)準(zhǔn)差

B.最小化殘差平方和

C.最大化信息熵


9.聚類的最簡(jiǎn)單最基本方法是()。

A.劃分聚類

B.層次聚類

C.密度聚類

D.距離聚類


10.K-means聚類適用的數(shù)據(jù)類型是()。

A.數(shù)值型數(shù)據(jù)

B.字符型數(shù)據(jù)

C.語(yǔ)音數(shù)據(jù)

D.所有數(shù)據(jù)


11.通過(guò)構(gòu)造新的指標(biāo)-線損率,當(dāng)超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()

A.簡(jiǎn)單函數(shù)變換

B.規(guī)范化

C.屬性構(gòu)造

D.連續(xù)屬性離散化


12.我們需要對(duì)已生成的樹(shù)()進(jìn)行剪枝,將樹(shù)變得簡(jiǎn)單,從而使它具有更好的泛化能力。

A.自上而下

B.自下而上

C.自左而右

D.自右而左


13.對(duì)于k近鄰法,下列說(shuō)法錯(cuò)誤的是()。

A.不具有顯式的學(xué)習(xí)過(guò)程

B.適用于多分類任務(wù)

C.k值越大,分類效果越好

D.通常采用多數(shù)表決的分類決策規(guī)則


14.單層感知機(jī)是由()層神經(jīng)元組成。

A.一

B.二

C.三

D.四


15.維克托?邁爾-舍恩伯格在《大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革》一書中,持續(xù)強(qiáng)調(diào)了一個(gè)觀點(diǎn):大數(shù)據(jù)時(shí)代的到來(lái),使我們無(wú)法人為地去發(fā)現(xiàn)數(shù)據(jù)中的奧妙,與此同時(shí),我們更應(yīng)該注重?cái)?shù)據(jù)中的相關(guān)關(guān)系,而不是因果關(guān)系。其中,數(shù)據(jù)之間的相關(guān)關(guān)系可以通過(guò)以下哪個(gè)算法直接挖掘( )

A.K-means

B.Bayes Network

C.C4.5

D.Apriori


16.為了解決任何復(fù)雜的分類問(wèn)題,使用的感知機(jī)結(jié)構(gòu)應(yīng)至少包含()個(gè)隱含層。

A.1

B.2

C.3

D.4


17.以下哪一項(xiàng)不是特征工程的子問(wèn)題()

A.特征創(chuàng)建

B.特征提取

C.特征選擇

D.特征識(shí)別


18.考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用 合并策略,由候選產(chǎn)生過(guò)程得到4-項(xiàng)集不包含()

A.1,2,3,4

B.1,2,3,5

C.1,2,4,5

D.1,3,4,5


19.在有統(tǒng)計(jì)學(xué)意義的前提下,標(biāo)準(zhǔn)化偏回歸系數(shù)的絕對(duì)值越大,說(shuō)明相應(yīng)的自變量對(duì)y的作用()。

A.越小

B.越大

C.無(wú)關(guān)

D.不確定


20.具有偏差和至少()個(gè)S型隱含層加上一個(gè)()輸出層的網(wǎng)絡(luò)能夠逼近任何有理數(shù)。

A.1,線性

B.2,線性

C.1,非線性

D.2,非線性


二、多選題 (共 10 道試題,共 20 分)

21.對(duì)于多層感知機(jī),()層擁有激活函數(shù)的功能神經(jīng)元。

A.輸入層

B.隱含層

C.輸出層


22.K-means聚類中K值選取的方法是()。

A.密度分類法

B.手肘法

C.大腿法

D.隨機(jī)選取


23.Apriori算法的計(jì)算復(fù)雜度受()影響。

A.支持度閾值

B.項(xiàng)數(shù)

C.事務(wù)數(shù)

D.事務(wù)平均寬度


24.k近鄰法的基本要素包括()。

A.距離度量

B.k值的選擇

C.樣本大小

D.分類決策規(guī)則


25.關(guān)聯(lián)規(guī)則的評(píng)價(jià)度量主要有:()。

A.支持度

B.置信度

C.準(zhǔn)確率

D.錯(cuò)誤率


26.下面例子屬于分類的是()

A.檢測(cè)圖像中是否有人臉出現(xiàn)

B.對(duì)客戶按照貸款風(fēng)險(xiǎn)大小進(jìn)行分類

C.識(shí)別手寫的數(shù)字

D.估計(jì)商場(chǎng)客流量


27.一元回歸參數(shù)估計(jì)的參數(shù)求解方法有()。

A.最大似然法

B.距估計(jì)法

C.最小二乘法

D.歐式距離法


28.數(shù)據(jù)科學(xué)具有哪些性質(zhì)()

A.有效性

B.可用性

C.未預(yù)料

D.可理解


29.什么情況下結(jié)點(diǎn)不用劃分()

A.當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類別

B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同

C.當(dāng)前結(jié)點(diǎn)包含的樣本集為空

D.還有子集不能被基本正確分類


30.系統(tǒng)日志收集的基本特征有()

A.高可用性

B.高可靠性

C.可擴(kuò)展性

D.高效率


三、判斷題 (共 20 道試題,共 40 分)

31.特征選擇和降維都是用于減少特征數(shù)量,進(jìn)而降低模型復(fù)雜度、防止過(guò)度擬合。


32.信息熵越大,數(shù)據(jù)信息的不確定性越小。


33.在數(shù)據(jù)預(yù)處理時(shí),無(wú)論什么情況,都可以直接將異常值刪除


34.標(biāo)準(zhǔn)BP算法是在讀取全部數(shù)據(jù)集后,對(duì)參數(shù)進(jìn)行統(tǒng)一更新的算法。


35.當(dāng)訓(xùn)練集較大的時(shí)候,標(biāo)準(zhǔn)BP算法通常會(huì)更快的獲得更好的解。


36.每個(gè)類的先驗(yàn)概率可以通過(guò)屬于該類的訓(xùn)練記錄所占的比例來(lái)估計(jì)。


37.具有雙隱層的感知機(jī)足以用于解決任何復(fù)雜的分類問(wèn)題。


38.子集產(chǎn)生本質(zhì)上是一個(gè)搜索過(guò)程,該過(guò)程可以從空集、隨機(jī)產(chǎn)生的一個(gè)特征子集或者整個(gè)特征集開(kāi)始。


39.探索性數(shù)據(jù)分析的特點(diǎn)是研究從原始數(shù)據(jù)入手,完全以實(shí)際數(shù)據(jù)為依據(jù)。


40.利用K近鄰法進(jìn)行分類時(shí),使用不同的距離度量所確定的最近鄰點(diǎn)都是相同的。


41.階躍函數(shù)具有不光滑、不連續(xù)的特點(diǎn)。


42.分拆方法是自底向上的方法。


43.EDA可以最大化數(shù)據(jù)分析者對(duì)數(shù)據(jù)集和數(shù)據(jù)集底層結(jié)構(gòu)的洞察力,并且為分析者提供數(shù)據(jù)集中包含的各類信息。


44.剪枝是決策樹(shù)學(xué)習(xí)算法對(duì)付“過(guò)擬合”的主要手段


45.單層感知機(jī)對(duì)于線性不可分的數(shù)據(jù),學(xué)習(xí)過(guò)程也可以收斂。


46.一般而言,信息增益越大,則意味著使用屬性a來(lái)進(jìn)行劃分所獲得的“純度提升越大”,因此我們可用信息增益來(lái)進(jìn)行決策樹(shù)的最優(yōu)特征選擇。


47.給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會(huì)發(fā)生。


48.支持度是衡量關(guān)聯(lián)規(guī)則重要性的一個(gè)指標(biāo)。


49.方差過(guò)小的特征對(duì)數(shù)據(jù)的區(qū)分能力強(qiáng)


50.隨著特征維數(shù)的增加,樣本間區(qū)分度提高。



  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部