20秋學(xué)期《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)-2

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2020/10/20 22:08:17來源:admin瀏覽: 32 次

可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請(qǐng)?zhí)砑観Q:3230981406      微信:aopopenfd777

[南開大學(xué)]20秋學(xué)期(1709、1803、1809、1903、1909、2003、2009 )《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)
試卷總分:100    得分:100
第1題,以下哪一項(xiàng)不是特征選擇常見的方法()
A、過濾式
B、封裝式
C、嵌入式
D、開放式
正確答案:


第2題,利用最小二乘法對(duì)多元線性回歸進(jìn)行參數(shù)估計(jì)時(shí),其目標(biāo)為()。
A、最小化方差#最小化標(biāo)準(zhǔn)差
B、最小化殘差平方和
C、最大化信息熵
正確答案:


第3題,以下哪些不是缺失值的影響()
A、數(shù)據(jù)建模將丟失大量有用信息
B、數(shù)據(jù)建模的不確定性更加顯著
C、對(duì)整體總是不產(chǎn)生什么作用
D、包含空值的數(shù)據(jù)可能會(huì)使建模過程陷入混亂,導(dǎo)致異常的輸出
正確答案:


第4題,下列兩個(gè)變量之間的關(guān)系中,哪個(gè)是函數(shù)關(guān)系()。
A、人的性別和他的身高
B、人的工資與年齡
C、正方形的面積和邊長
D、溫度與濕度
正確答案:


答案來源:(www.),哪一項(xiàng)不屬于規(guī)范化的方法()
A、最小-最大規(guī)范化
B、零-均值規(guī)范化
C、小數(shù)定標(biāo)規(guī)范化
D、中位數(shù)規(guī)范化
正確答案:


第6題,某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()
A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
B、聚類
C、分類
D、自然語言處理
正確答案:


第7題,考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用 合并策略,由候選產(chǎn)生過程得到4-項(xiàng)集不包含()
A、1,2,3,4
B、1,2,3,5
C、1,2,4,5
D、1,3,4,5
正確答案:


第8題,為了解決任何復(fù)雜的分類問題,使用的感知機(jī)結(jié)構(gòu)應(yīng)至少包含()個(gè)隱含層。
A、1
B、2
C、3
D、4
正確答案:


第9題,設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個(gè)關(guān)聯(lián)規(guī)則。
A、4
B、5
C、6
D、7
正確答案:


答案來源:(www.),以下哪一項(xiàng)不屬于數(shù)據(jù)變換()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性合并
D、連續(xù)屬性離散化
正確答案:


第11題,一元線性回歸中,真實(shí)值與預(yù)測(cè)值的差稱為樣本的()。
A、誤差
B、方差
C、測(cè)差
D、殘差
正確答案:


答案來源:(www.),聚類的最簡單最基本方法是()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:


第13題,單層感知機(jī)模型屬于()模型。
A、二分類的線性分類模型
B、二分類的非線性分類模型
C、多分類的線性分類模型
D、多分類的非線性分類模型
正確答案:


第14題,在一元線性回歸中,通過最小二乘法求得的直線叫做回歸直線或()。
A、最優(yōu)回歸線
B、最優(yōu)分布線
C、最優(yōu)預(yù)測(cè)線
D、最佳分布線
正確答案:


答案來源:(www.),在k近鄰法中,選擇較小的k值時(shí),學(xué)習(xí)的"近似誤差"會(huì)(),"估計(jì)誤差"會(huì)()。
A、減小,減小
B、減小,增大
C、增大,減小
D、增大,增大
正確答案:


第16題,某商品的產(chǎn)量(X,件)與單位成本(Y,元/件)之間的回歸方程為^Y=100-1.2X,這說明()。
A、產(chǎn)量每增加一臺(tái),單位成本增加100元
B、產(chǎn)量每增加一臺(tái),單位成本減少1.2元
C、產(chǎn)量每增加一臺(tái),單位成本平均減少1.2元
D、產(chǎn)量每增加一臺(tái),單位平均增加100元
正確答案:


第17題,對(duì)于k近鄰法,下列說法錯(cuò)誤的是()。
A、不具有顯式的學(xué)習(xí)過程
B、適用于多分類任務(wù)
C、k值越大,分類效果越好
D、通常采用多數(shù)表決的分類決策規(guī)則
正確答案:


第18題,實(shí)體識(shí)別屬于以下哪個(gè)過程()
A、數(shù)據(jù)清洗
B、數(shù)據(jù)集成
C、數(shù)據(jù)規(guī)約
D、數(shù)據(jù)變換
正確答案:


第19題,在回歸分析中,自變量為(),因變量為()。
A、離散型變量,離散型變量
B、連續(xù)型變量,離散型變量
C、離散型變量,連續(xù)型變量
D、連續(xù)型變量,連續(xù)型變量
正確答案:


答案來源:(www.),在有統(tǒng)計(jì)學(xué)意義的前提下,標(biāo)準(zhǔn)化偏回歸系數(shù)的絕對(duì)值越大,說明相應(yīng)的自變量對(duì)y的作用()。
A、越小
B、越大
C、無關(guān)
D、不確定
正確答案:


第21題,K-means聚類中K值選取的方法是()。
A、密度分類法
B、手肘法
C、大腿法
D、隨機(jī)選取
正確答案:,B


第22題,系統(tǒng)日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可擴(kuò)展性
D、高效率
正確答案:,B,C


第23題,Apriori算法的計(jì)算復(fù)雜度受()影響。
A、支持度閾值
B、項(xiàng)數(shù)
C、事務(wù)數(shù)
D、事務(wù)平均寬度
正確答案:,B,C,D


第24題,距離度量中的距離可以是()
A、歐式距離
B、曼哈頓距離
C、Lp距離
D、Minkowski距離
正確答案:,B,C,D


答案來源:(www.),k近鄰法的基本要素包括()。
A、距離度量
B、k值的選擇
C、樣本大小
D、分類決策規(guī)則
正確答案:,B,D


第26題,多層感知機(jī)的學(xué)習(xí)過程包含()。
A、信號(hào)的正向傳播
B、信號(hào)的反向傳播
C、誤差的正向傳播
D、誤差的反向傳播
正確答案:,D


第27題,一元回歸參數(shù)估計(jì)的參數(shù)求解方法有()。
A、最大似然法
B、距估計(jì)法
C、最小二乘法
D、歐式距離法
正確答案:,B,C


第28題,什么情況下結(jié)點(diǎn)不用劃分()
A、當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類別
B、當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同
C、當(dāng)前結(jié)點(diǎn)包含的樣本集為空
D、還有子集不能被基本正確分類
正確答案:,B,C


第29題,數(shù)據(jù)科學(xué)具有哪些性質(zhì)()
A、有效性
B、可用性
C、未預(yù)料
D、可理解
正確答案:,B,C,D


答案來源:(www.),下面例子屬于分類的是()
A、檢測(cè)圖像中是否有人臉出現(xiàn)
B、對(duì)客戶按照貸款風(fēng)險(xiǎn)大小進(jìn)行分類
C、識(shí)別手寫的數(shù)字
D、估計(jì)商場(chǎng)客流量
正確答案:,B,C


第31題,剪枝是決策樹學(xué)習(xí)算法對(duì)付"過擬合"的主要手段
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第32題,給定一組點(diǎn),使用點(diǎn)之間的距離概念,將點(diǎn)分組為若干簇,不同簇的成員可以相同。
T、對(duì)
F、錯(cuò)
正確答案:F


第33題,相關(guān)性分析主要是分析個(gè)別獨(dú)立變量之間線性相關(guān)程度的強(qiáng)弱,并用適當(dāng)?shù)慕y(tǒng)計(jì)指標(biāo)表示出來的過程。
T、對(duì)
F、錯(cuò)
正確答案:F


第34題,分拆方法是自底向上的方法。
T、對(duì)
F、錯(cuò)
正確答案:F


第35題,探索性數(shù)據(jù)分析的特點(diǎn)是研究從原始數(shù)據(jù)入手,完全以實(shí)際數(shù)據(jù)為依據(jù)。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第36題,在數(shù)據(jù)預(yù)處理時(shí),無論什么情況,都可以直接將異常值刪除
T、對(duì)
F、錯(cuò)
正確答案:F


第37題,對(duì)于項(xiàng)集來說,置信度沒有意義。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第38題,給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會(huì)發(fā)生。
T、對(duì)
F、錯(cuò)
正確答案:F


第39題,信息熵越小,樣本結(jié)合的純度越低
T、對(duì)
F、錯(cuò)
正確答案:F


第40題,聚合方法是自底向上的方法。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第41題,BFR聚類簇的坐標(biāo)可以與空間的坐標(biāo)保持一致。
T、對(duì)
F、錯(cuò)
正確答案:F


第42題,集中趨勢(shì)能夠表明在一定條件下數(shù)據(jù)的獨(dú)特性質(zhì)與差異
T、對(duì)
F、錯(cuò)
正確答案:F


第43題,利用K近鄰法進(jìn)行分類時(shí),使用不同的距離度量所確定的最近鄰點(diǎn)都是相同的。
T、對(duì)
F、錯(cuò)
正確答案:F


第44題,樸素貝葉斯分類器有簡單、高效、健壯的特點(diǎn),但某些屬性可能會(huì)降低分類器的性能
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第45題,數(shù)據(jù)科學(xué)運(yùn)用科學(xué)方法分析數(shù)據(jù),位于幾個(gè)學(xué)科的交叉點(diǎn)并利用領(lǐng)域特定的知識(shí),使大數(shù)據(jù)的分析成為可能。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第46題,使用SVD方法進(jìn)行圖像壓縮不可以保留圖像的重要特征。
T、對(duì)
F、錯(cuò)
正確答案:F


第47題,K均值(K-Means)算法是密度聚類。
T、對(duì)
F、錯(cuò)
正確答案:F


第48題,K-means算法采用貪心策略,通過迭代優(yōu)化來近似求解。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第49題,獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。
T、對(duì)
F、錯(cuò)
正確答案:F


答案來源:(www.),特征的信息增益越大,則其越不重要。
T、對(duì)
F、錯(cuò)
正確答案:F














  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部