20秋學(xué)期《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)-1

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2020/10/20 22:09:29來源:admin瀏覽: 29 次

可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請(qǐng)?zhí)砑観Q:3230981406      微信:aopopenfd777


[南開大學(xué)]20秋學(xué)期(1709、1803、1809、1903、1909、2003、2009 )《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)
試卷總分:100    得分:100
第1題,對(duì)于k近鄰法,下列說法錯(cuò)誤的是()。
A、不具有顯式的學(xué)習(xí)過程
B、適用于多分類任務(wù)
C、k值越大,分類效果越好
D、通常采用多數(shù)表決的分類決策規(guī)則
正確答案:


第2題,以下哪個(gè)不是處理缺失值的方法()
A、刪除記錄
B、按照一定原則補(bǔ)充
C、不處理
D、隨意填寫
正確答案:


第3題,在一元線性回歸模型中,殘差項(xiàng)服從()分布。
A、泊松
B、正態(tài)
C、線性
D、非線性
正確答案:


第4題,一元線性回歸中,真實(shí)值與預(yù)測(cè)值的差稱為樣本的()。
A、誤差
B、方差
C、測(cè)差
D、殘差
正確答案:


答案來源:(www.),Apriori算法的加速過程依賴于以下哪個(gè)策略(  )
A、抽樣
B、剪枝
C、緩沖
D、并行
正確答案:


第6題,數(shù)據(jù)庫(kù)中相關(guān)聯(lián)的兩張表都存儲(chǔ)了用戶的個(gè)人信息,但在用戶的個(gè)人信息發(fā)生改變時(shí)只更新了一張表中的數(shù)據(jù),這時(shí)兩張表中就有了不一致的數(shù)據(jù),這屬于()
A、異常值
B、缺失值
C、不一致的值
D、重復(fù)值
正確答案:


第7題,單層感知機(jī)模型屬于()模型。
A、二分類的線性分類模型
B、二分類的非線性分類模型
C、多分類的線性分類模型
D、多分類的非線性分類模型
正確答案:


第8題,層次聚類適合規(guī)模較()的數(shù)據(jù)集
A、大
B、中
C、小
D、所有
正確答案:


第9題,通過構(gòu)造新的指標(biāo)-線損率,當(dāng)超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()
A、簡(jiǎn)單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:


答案來源:(www.),例如將工資收入屬性值映射到[-1,1]或者[0,1]內(nèi)屬于數(shù)據(jù)變換中的()
A、簡(jiǎn)單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:


第11題,在有統(tǒng)計(jì)學(xué)意義的前提下,標(biāo)準(zhǔn)化偏回歸系數(shù)的絕對(duì)值越大,說明相應(yīng)的自變量對(duì)y的作用()。
A、越小
B、越大
C、無關(guān)
D、不確定
正確答案:


答案來源:(www.),考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用 合并策略,由候選產(chǎn)生過程得到4-項(xiàng)集不包含()
A、1,2,3,4
B、1,2,3,5
C、1,2,4,5
D、1,3,4,5
正確答案:


第13題,具有偏差和至少()個(gè)S型隱含層加上一個(gè)()輸出層的網(wǎng)絡(luò)能夠逼近任何有理數(shù)。
A、1,線性
B、2,線性
C、1,非線性
D、2,非線性
正確答案:


第14題,實(shí)體識(shí)別屬于以下哪個(gè)過程()
A、數(shù)據(jù)清洗
B、數(shù)據(jù)集成
C、數(shù)據(jù)規(guī)約
D、數(shù)據(jù)變換
正確答案:


答案來源:(www.),通過變量標(biāo)準(zhǔn)化計(jì)算得到的回歸方程稱為()。
A、標(biāo)準(zhǔn)化回歸方程
B、標(biāo)準(zhǔn)化偏回歸方程
C、標(biāo)準(zhǔn)化自回歸方程
D、標(biāo)準(zhǔn)化多回歸方程
正確答案:


第16題,我們需要對(duì)已生成的樹()進(jìn)行剪枝,將樹變得簡(jiǎn)單,從而使它具有更好的泛化能力。
A、自上而下
B、自下而上
C、自左而右
D、自右而左
正確答案:


第17題,聚類是一種()。
A、有監(jiān)督學(xué)習(xí)
B、無監(jiān)督學(xué)習(xí)
C、強(qiáng)化學(xué)習(xí)
D、半監(jiān)督學(xué)習(xí)
正確答案:


第18題,利用最小二乘法對(duì)多元線性回歸進(jìn)行參數(shù)估計(jì)時(shí),其目標(biāo)為()。
A、最小化方差#最小化標(biāo)準(zhǔn)差
B、最小化殘差平方和
C、最大化信息熵
正確答案:


第19題,實(shí)體識(shí)別的常見形式()
A、同名異義
B、異名同義
C、單位不統(tǒng)一
D、屬性不同
正確答案:


答案來源:(www.),以下哪一項(xiàng)不屬于數(shù)據(jù)變換()
A、簡(jiǎn)單函數(shù)變換
B、規(guī)范化
C、屬性合并
D、連續(xù)屬性離散化
正確答案:


第21題,距離度量中的距離可以是()
A、歐式距離
B、曼哈頓距離
C、Lp距離
D、Minkowski距離
正確答案:,B,C,D


第22題,Apriori算法的計(jì)算復(fù)雜度受()影響。
A、支持度閾值
B、項(xiàng)數(shù)
C、事務(wù)數(shù)
D、事務(wù)平均寬度
正確答案:,B,C,D


第23題,K-means聚類中K值選取的方法是()。
A、密度分類法
B、手肘法
C、大腿法
D、隨機(jī)選取
正確答案:,B


第24題,聚類的主要方法有()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:,B,C


答案來源:(www.),對(duì)于多層感知機(jī),()層擁有激活函數(shù)的功能神經(jīng)元。
A、輸入層
B、隱含層
C、輸出層
正確答案:,C


第26題,什么情況下結(jié)點(diǎn)不用劃分()
A、當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類別
B、當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同
C、當(dāng)前結(jié)點(diǎn)包含的樣本集為空
D、還有子集不能被基本正確分類
正確答案:,B,C


第27題,下列選項(xiàng)是BFR的對(duì)象是()
A、廢棄集
B、臨時(shí)集
C、壓縮集
D、留存集
正確答案:,C,D


第28題,系統(tǒng)日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可擴(kuò)展性
D、高效率
正確答案:,B,C


第29題,下面例子屬于分類的是()
A、檢測(cè)圖像中是否有人臉出現(xiàn)
B、對(duì)客戶按照貸款風(fēng)險(xiǎn)大小進(jìn)行分類
C、識(shí)別手寫的數(shù)字
D、估計(jì)商場(chǎng)客流量
正確答案:,B,C


答案來源:(www.),k近鄰法的基本要素包括()。
A、距離度量
B、k值的選擇
C、樣本大小
D、分類決策規(guī)則
正確答案:,B,D


第31題,一般而言,信息增益越大,則意味著使用屬性a來進(jìn)行劃分所獲得的"純度提升越大",因此我們可用信息增益來進(jìn)行決策樹的最優(yōu)特征選擇。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第32題,給定一個(gè)數(shù)據(jù)集,如果存在某個(gè)超平面S能夠?qū)?shù)據(jù)集的部分正實(shí)例點(diǎn)和負(fù)實(shí)例點(diǎn)正確的劃分到超平面的兩側(cè),則稱該數(shù)據(jù)集是線性可分?jǐn)?shù)據(jù)集。
T、對(duì)
F、錯(cuò)
正確答案:F


第33題,Pearson相關(guān)系數(shù)是判斷特征之間、以及特征和目標(biāo)變量之間線性相關(guān)關(guān)系的統(tǒng)計(jì)量。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第34題,特征選擇和降維都是用于減少特征數(shù)量,進(jìn)而降低模型復(fù)雜度、防止過度擬合。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第35題,兩個(gè)對(duì)象越相似,他們的相異度就越高。
T、對(duì)
F、錯(cuò)
正確答案:F


第36題,樸素貝葉斯分類器有簡(jiǎn)單、高效、健壯的特點(diǎn),但某些屬性可能會(huì)降低分類器的性能
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第37題,獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。
T、對(duì)
F、錯(cuò)
正確答案:F


第38題,選擇較小的k值,相當(dāng)于用較小的鄰域中的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),學(xué)習(xí)的"近似誤差"會(huì)減小,"估計(jì)誤差"會(huì)增大,預(yù)測(cè)結(jié)果會(huì)對(duì)近鄰的點(diǎn)實(shí)例點(diǎn)非常敏感。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第39題,K均值(K-Means)算法是密度聚類。
T、對(duì)
F、錯(cuò)
正確答案:F


第40題,K-means算法采用貪心策略,通過迭代優(yōu)化來近似求解。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第41題,赤池信息準(zhǔn)則是衡量統(tǒng)計(jì)模型擬合優(yōu)良性的一種標(biāo)準(zhǔn)。
T、對(duì)
F、錯(cuò)
正確答案:


第42題,平均減少的不純度越大,則特征重要度越高。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第43題,標(biāo)準(zhǔn)BP算法是在讀取全部數(shù)據(jù)集后,對(duì)參數(shù)進(jìn)行統(tǒng)一更新的算法。
T、對(duì)
F、錯(cuò)
正確答案:F


第44題,子集產(chǎn)生本質(zhì)上是一個(gè)搜索過程,該過程可以從空集、隨機(jī)產(chǎn)生的一個(gè)特征子集或者整個(gè)特征集開始。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第45題,數(shù)據(jù)科學(xué)具有廣泛的應(yīng)用領(lǐng)域,可以應(yīng)用在社交網(wǎng)絡(luò)、職業(yè)體育、政治競(jìng)選
T、對(duì)
F、錯(cuò)
正確答案:


第46題,探索性數(shù)據(jù)分析的特點(diǎn)是研究從原始數(shù)據(jù)入手,完全以實(shí)際數(shù)據(jù)為依據(jù)。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第47題,決策樹學(xué)習(xí)的算法通常是一個(gè)遞歸地選擇最優(yōu)特征,并根據(jù)該特征對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行分割,使得各個(gè)子數(shù)據(jù)集有一個(gè)最好的分類的過程,這一過程對(duì)應(yīng)著特征空間的劃分,也對(duì)應(yīng)著決策樹的構(gòu)建
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第48題,給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會(huì)發(fā)生。
T、對(duì)
F、錯(cuò)
正確答案:F


第49題,信息熵越大,數(shù)據(jù)信息的不確定性越小。
T、對(duì)
F、錯(cuò)
正確答案:F


答案來源:(www.),對(duì)于分類數(shù)據(jù),經(jīng)常使用表格,來統(tǒng)計(jì)各種類別的數(shù)據(jù)出現(xiàn)的頻率。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)














  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部