南開(kāi)23春學(xué)期《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)【答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2023/7/24 2:09:58來(lái)源:admin瀏覽: 0 次

23春學(xué)期(高起本:1709-2103、專升本/高起專:1909-2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)-00001

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.在一元線性回歸中,通過(guò)最小二乘法求得的直線叫做回歸直線或()。

A.最優(yōu)回歸線

B.最優(yōu)分布線

C.最優(yōu)預(yù)測(cè)線

D.最佳分布線


2.實(shí)體識(shí)別屬于以下哪個(gè)過(guò)程()

A.數(shù)據(jù)清洗

B.數(shù)據(jù)集成

C.數(shù)據(jù)規(guī)約

D.數(shù)據(jù)變換


3.K-means聚類適用的數(shù)據(jù)類型是()。

A.數(shù)值型數(shù)據(jù)

B.字符型數(shù)據(jù)

C.語(yǔ)音數(shù)據(jù)

D.所有數(shù)據(jù)


4.利用最小二乘法對(duì)多元線性回歸進(jìn)行參數(shù)估計(jì)時(shí),其目標(biāo)為()。

A.最小化方差#最小化標(biāo)準(zhǔn)差

B.最小化殘差平方和

C.最大化信息熵


5.BFR聚類用于在()歐氏空間中對(duì)數(shù)據(jù)進(jìn)行聚類

A.高維

B.中維

C.低維

D.中高維


6.根據(jù)映射關(guān)系的不同可以分為線性回歸和()。

A.對(duì)數(shù)回歸

B.非線性回歸

C.邏輯回歸

D.多元回歸


7.多層感知機(jī)是由()層神經(jīng)元組成。

A.二

B.三

C.大于等于二層

D.大于等于三層


8.以下屬于關(guān)聯(lián)分析的是( )

A.CPU性能預(yù)測(cè)

B.購(gòu)物籃分析

C.自動(dòng)判斷鳶尾花類別

D.股票趨勢(shì)建模


9.單層感知機(jī)是由()層神經(jīng)元組成。

A.一

B.二

C.三

D.四


10.比如一張表,從業(yè)務(wù)上講,一個(gè)用戶應(yīng)該只會(huì)有一條記錄, 那么如果某個(gè)用戶出現(xiàn)了超過(guò)一條的記錄,這就產(chǎn)生了()

A.異常值

B.不一致的值

C.重復(fù)值

D.缺失值


11.聚類的最簡(jiǎn)單最基本方法是()。

A.劃分聚類

B.層次聚類

C.密度聚類

D.距離聚類


12.單層感知機(jī)模型屬于()模型。

A.二分類的線性分類模型

B.二分類的非線性分類模型

C.多分類的線性分類模型

D.多分類的非線性分類模型


13.一元線性回歸中,真實(shí)值與預(yù)測(cè)值的差稱為樣本的()。

A.誤差

B.方差

C.測(cè)差

D.殘差


14.通過(guò)構(gòu)造新的指標(biāo)-線損率,當(dāng)超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()

A.簡(jiǎn)單函數(shù)變換

B.規(guī)范化

C.屬性構(gòu)造

D.連續(xù)屬性離散化


15.維克托?邁爾-舍恩伯格在《大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革》一書(shū)中,持續(xù)強(qiáng)調(diào)了一個(gè)觀點(diǎn):大數(shù)據(jù)時(shí)代的到來(lái),使我們無(wú)法人為地去發(fā)現(xiàn)數(shù)據(jù)中的奧妙,與此同時(shí),我們更應(yīng)該注重?cái)?shù)據(jù)中的相關(guān)關(guān)系,而不是因果關(guān)系。其中,數(shù)據(jù)之間的相關(guān)關(guān)系可以通過(guò)以下哪個(gè)算法直接挖掘( )

A.K-means

B.Bayes Network

C.C4.5

D.Apriori


16.數(shù)據(jù)庫(kù)中相關(guān)聯(lián)的兩張表都存儲(chǔ)了用戶的個(gè)人信息,但在用戶的個(gè)人信息發(fā)生改變時(shí)只更新了一張表中的數(shù)據(jù),這時(shí)兩張表中就有了不一致的數(shù)據(jù),這屬于()

A.異常值

B.缺失值

C.不一致的值

D.重復(fù)值


17.變量之間的關(guān)系一般可以分為確定性關(guān)系與()。

A.非確定性關(guān)系

B.線性關(guān)系

C.函數(shù)關(guān)系

D.相關(guān)關(guān)系


18.單層感知機(jī)擁有()層功能神經(jīng)元。

A.一

B.二

C.三

D.四


19.以下哪些不是缺失值的影響()

A.數(shù)據(jù)建模將丟失大量有用信息

B.數(shù)據(jù)建模的不確定性更加顯著

C.對(duì)整體總是不產(chǎn)生什么作用

D.包含空值的數(shù)據(jù)可能會(huì)使建模過(guò)程陷入混亂,導(dǎo)致異常的輸出


20.置信度(confidence)是衡量興趣度度量( )的指標(biāo)。

A.簡(jiǎn)潔性

B.確定性

C.實(shí)用性

D.新穎性


二、多選題 (共 10 道試題,共 20 分)

21.關(guān)聯(lián)規(guī)則的評(píng)價(jià)度量主要有:()。

A.支持度

B.置信度

C.準(zhǔn)確率

D.錯(cuò)誤率


22.相關(guān)性的分類,按照相關(guān)的方向可以分為()。

A.正相關(guān)

B.負(fù)相關(guān)

C.左相關(guān)

D.右相關(guān)


23.層次聚類的方法是()

A.聚合方法

B.分拆方法

C.組合方法

D.比較方法


24.什么情況下結(jié)點(diǎn)不用劃分()

A.當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類別

B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同

C.當(dāng)前結(jié)點(diǎn)包含的樣本集為空

D.還有子集不能被基本正確分類


25.下列選項(xiàng)是BFR的對(duì)象是()

A.廢棄集

B.臨時(shí)集

C.壓縮集

D.留存集


26.數(shù)據(jù)科學(xué)具有哪些性質(zhì)()

A.有效性

B.可用性

C.未預(yù)料

D.可理解


27.系統(tǒng)日志收集的基本特征有()

A.高可用性

B.高可靠性

C.可擴(kuò)展性

D.高效率


28.K-means聚類中K值選取的方法是()。

A.密度分類法

B.手肘法

C.大腿法

D.隨機(jī)選取


29.距離度量中的距離可以是()

A.歐式距離

B.曼哈頓距離

C.Lp距離

D.Minkowski距離


30.下面例子屬于分類的是()

A.檢測(cè)圖像中是否有人臉出現(xiàn)

B.對(duì)客戶按照貸款風(fēng)險(xiǎn)大小進(jìn)行分類

C.識(shí)別手寫(xiě)的數(shù)字

D.估計(jì)商場(chǎng)客流量


三、判斷題 (共 20 道試題,共 40 分)

31.獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。


32.當(dāng)訓(xùn)練集較大的時(shí)候,標(biāo)準(zhǔn)BP算法通常會(huì)更快的獲得更好的解。


33.K均值(K-Means)算法是密度聚類。


34.赤池信息準(zhǔn)則是衡量統(tǒng)計(jì)模型擬合優(yōu)良性的一種標(biāo)準(zhǔn)。


35.多層感知機(jī)的學(xué)習(xí)能力有限,只能處理線性可分的二分類問(wèn)題。


36.隨著特征維數(shù)的增加,特征空間呈指數(shù)倍增長(zhǎng),樣本密度急劇減小,樣本稀疏。


37.子集產(chǎn)生本質(zhì)上是一個(gè)搜索過(guò)程,該過(guò)程可以從空集、隨機(jī)產(chǎn)生的一個(gè)特征子集或者整個(gè)特征集開(kāi)始。


38.為了更加準(zhǔn)確地描述變量之間的線性相關(guān)程度,可以通過(guò)計(jì)算相關(guān)系數(shù)來(lái)進(jìn)行相關(guān)分析。


39.給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會(huì)發(fā)生。


40.決策樹(shù)還可以表示給定特征條件下類的條件概率分布,這一概率分布定義在特征空間的一個(gè)劃分上,將特征空間分為互不相交的單元或區(qū)域,并在每個(gè)單元定義一個(gè)類的概率分布就構(gòu)成了一個(gè)條件概率分布


41.交叉表可以幫助人們發(fā)現(xiàn)變量之間的相互作用。


42.貝葉斯定理是概率論中的一個(gè)結(jié)果,它與隨機(jī)變量的條件概率以及聯(lián)合概率分布 有關(guān)。


43.給定一組點(diǎn),使用點(diǎn)之間的距離概念,將點(diǎn)分組為若干簇,不同簇的成員可以相同。


44.由不同的距離度量所確定的最近鄰點(diǎn)是不同的


45.一般而言,信息增益越大,則意味著使用屬性a來(lái)進(jìn)行劃分所獲得的“純度提升越大”,因此我們可用信息增益來(lái)進(jìn)行決策樹(shù)的最優(yōu)特征選擇。


46.在樹(shù)的結(jié)構(gòu)中,特征越重要,就越遠(yuǎn)離根節(jié)點(diǎn)。


47.當(dāng)維度增加時(shí),特征空間的體積增加得很快,使得可用的數(shù)據(jù)變得稠密。


48.特征選擇和降維都是用于減少特征數(shù)量,進(jìn)而降低模型復(fù)雜度、防止過(guò)度擬合。


49.Apriori算法是一種典型的關(guān)聯(lián)規(guī)則挖掘算法。


50.標(biāo)準(zhǔn)BP算法是在讀取全部數(shù)據(jù)集后,對(duì)參數(shù)進(jìn)行統(tǒng)一更新的算法。




奧鵬,國(guó)開(kāi),廣開(kāi),電大在線,各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請(qǐng)咨詢QQ : 3230981406或微信:aopopenfd777

  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部