20秋學(xué)期《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)-1

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2020/10/20 22:09:29來源:admin瀏覽: 29 次

可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請?zhí)砑観Q:3230981406      微信:aopopenfd777


[南開大學(xué)]20秋學(xué)期(1709、1803、1809、1903、1909、2003、2009 )《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)
試卷總分:100    得分:100
第1題,對于k近鄰法,下列說法錯誤的是()。
A、不具有顯式的學(xué)習(xí)過程
B、適用于多分類任務(wù)
C、k值越大,分類效果越好
D、通常采用多數(shù)表決的分類決策規(guī)則
正確答案:


第2題,以下哪個不是處理缺失值的方法()
A、刪除記錄
B、按照一定原則補充
C、不處理
D、隨意填寫
正確答案:


第3題,在一元線性回歸模型中,殘差項服從()分布。
A、泊松
B、正態(tài)
C、線性
D、非線性
正確答案:


第4題,一元線性回歸中,真實值與預(yù)測值的差稱為樣本的()。
A、誤差
B、方差
C、測差
D、殘差
正確答案:


答案來源:(www.),Apriori算法的加速過程依賴于以下哪個策略(  )
A、抽樣
B、剪枝
C、緩沖
D、并行
正確答案:


第6題,數(shù)據(jù)庫中相關(guān)聯(lián)的兩張表都存儲了用戶的個人信息,但在用戶的個人信息發(fā)生改變時只更新了一張表中的數(shù)據(jù),這時兩張表中就有了不一致的數(shù)據(jù),這屬于()
A、異常值
B、缺失值
C、不一致的值
D、重復(fù)值
正確答案:


第7題,單層感知機模型屬于()模型。
A、二分類的線性分類模型
B、二分類的非線性分類模型
C、多分類的線性分類模型
D、多分類的非線性分類模型
正確答案:


第8題,層次聚類適合規(guī)模較()的數(shù)據(jù)集
A、大
B、中
C、小
D、所有
正確答案:


第9題,通過構(gòu)造新的指標(biāo)-線損率,當(dāng)超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:


答案來源:(www.),例如將工資收入屬性值映射到[-1,1]或者[0,1]內(nèi)屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:


第11題,在有統(tǒng)計學(xué)意義的前提下,標(biāo)準(zhǔn)化偏回歸系數(shù)的絕對值越大,說明相應(yīng)的自變量對y的作用()。
A、越小
B、越大
C、無關(guān)
D、不確定
正確答案:


答案來源:(www.),考慮下面的頻繁3-項集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個項,采用 合并策略,由候選產(chǎn)生過程得到4-項集不包含()
A、1,2,3,4
B、1,2,3,5
C、1,2,4,5
D、1,3,4,5
正確答案:


第13題,具有偏差和至少()個S型隱含層加上一個()輸出層的網(wǎng)絡(luò)能夠逼近任何有理數(shù)。
A、1,線性
B、2,線性
C、1,非線性
D、2,非線性
正確答案:


第14題,實體識別屬于以下哪個過程()
A、數(shù)據(jù)清洗
B、數(shù)據(jù)集成
C、數(shù)據(jù)規(guī)約
D、數(shù)據(jù)變換
正確答案:


答案來源:(www.),通過變量標(biāo)準(zhǔn)化計算得到的回歸方程稱為()。
A、標(biāo)準(zhǔn)化回歸方程
B、標(biāo)準(zhǔn)化偏回歸方程
C、標(biāo)準(zhǔn)化自回歸方程
D、標(biāo)準(zhǔn)化多回歸方程
正確答案:


第16題,我們需要對已生成的樹()進行剪枝,將樹變得簡單,從而使它具有更好的泛化能力。
A、自上而下
B、自下而上
C、自左而右
D、自右而左
正確答案:


第17題,聚類是一種()。
A、有監(jiān)督學(xué)習(xí)
B、無監(jiān)督學(xué)習(xí)
C、強化學(xué)習(xí)
D、半監(jiān)督學(xué)習(xí)
正確答案:


第18題,利用最小二乘法對多元線性回歸進行參數(shù)估計時,其目標(biāo)為()。
A、最小化方差#最小化標(biāo)準(zhǔn)差
B、最小化殘差平方和
C、最大化信息熵
正確答案:


第19題,實體識別的常見形式()
A、同名異義
B、異名同義
C、單位不統(tǒng)一
D、屬性不同
正確答案:


答案來源:(www.),以下哪一項不屬于數(shù)據(jù)變換()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性合并
D、連續(xù)屬性離散化
正確答案:


第21題,距離度量中的距離可以是()
A、歐式距離
B、曼哈頓距離
C、Lp距離
D、Minkowski距離
正確答案:,B,C,D


第22題,Apriori算法的計算復(fù)雜度受()影響。
A、支持度閾值
B、項數(shù)
C、事務(wù)數(shù)
D、事務(wù)平均寬度
正確答案:,B,C,D


第23題,K-means聚類中K值選取的方法是()。
A、密度分類法
B、手肘法
C、大腿法
D、隨機選取
正確答案:,B


第24題,聚類的主要方法有()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:,B,C


答案來源:(www.),對于多層感知機,()層擁有激活函數(shù)的功能神經(jīng)元。
A、輸入層
B、隱含層
C、輸出層
正確答案:,C


第26題,什么情況下結(jié)點不用劃分()
A、當(dāng)前結(jié)點所包含的樣本全屬于同一類別
B、當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同
C、當(dāng)前結(jié)點包含的樣本集為空
D、還有子集不能被基本正確分類
正確答案:,B,C


第27題,下列選項是BFR的對象是()
A、廢棄集
B、臨時集
C、壓縮集
D、留存集
正確答案:,C,D


第28題,系統(tǒng)日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可擴展性
D、高效率
正確答案:,B,C


第29題,下面例子屬于分類的是()
A、檢測圖像中是否有人臉出現(xiàn)
B、對客戶按照貸款風(fēng)險大小進行分類
C、識別手寫的數(shù)字
D、估計商場客流量
正確答案:,B,C


答案來源:(www.),k近鄰法的基本要素包括()。
A、距離度量
B、k值的選擇
C、樣本大小
D、分類決策規(guī)則
正確答案:,B,D


第31題,一般而言,信息增益越大,則意味著使用屬性a來進行劃分所獲得的"純度提升越大",因此我們可用信息增益來進行決策樹的最優(yōu)特征選擇。
T、對
F、錯
更多答案下載:(www.)


第32題,給定一個數(shù)據(jù)集,如果存在某個超平面S能夠?qū)?shù)據(jù)集的部分正實例點和負實例點正確的劃分到超平面的兩側(cè),則稱該數(shù)據(jù)集是線性可分?jǐn)?shù)據(jù)集。
T、對
F、錯
正確答案:F


第33題,Pearson相關(guān)系數(shù)是判斷特征之間、以及特征和目標(biāo)變量之間線性相關(guān)關(guān)系的統(tǒng)計量。
T、對
F、錯
更多答案下載:(www.)


第34題,特征選擇和降維都是用于減少特征數(shù)量,進而降低模型復(fù)雜度、防止過度擬合。
T、對
F、錯
更多答案下載:(www.)


第35題,兩個對象越相似,他們的相異度就越高。
T、對
F、錯
正確答案:F


第36題,樸素貝葉斯分類器有簡單、高效、健壯的特點,但某些屬性可能會降低分類器的性能
T、對
F、錯
更多答案下載:(www.)


第37題,獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。
T、對
F、錯
正確答案:F


第38題,選擇較小的k值,相當(dāng)于用較小的鄰域中的訓(xùn)練實例進行預(yù)測,學(xué)習(xí)的"近似誤差"會減小,"估計誤差"會增大,預(yù)測結(jié)果會對近鄰的點實例點非常敏感。
T、對
F、錯
更多答案下載:(www.)


第39題,K均值(K-Means)算法是密度聚類。
T、對
F、錯
正確答案:F


第40題,K-means算法采用貪心策略,通過迭代優(yōu)化來近似求解。
T、對
F、錯
更多答案下載:(www.)


第41題,赤池信息準(zhǔn)則是衡量統(tǒng)計模型擬合優(yōu)良性的一種標(biāo)準(zhǔn)。
T、對
F、錯
正確答案:


第42題,平均減少的不純度越大,則特征重要度越高。
T、對
F、錯
更多答案下載:(www.)


第43題,標(biāo)準(zhǔn)BP算法是在讀取全部數(shù)據(jù)集后,對參數(shù)進行統(tǒng)一更新的算法。
T、對
F、錯
正確答案:F


第44題,子集產(chǎn)生本質(zhì)上是一個搜索過程,該過程可以從空集、隨機產(chǎn)生的一個特征子集或者整個特征集開始。
T、對
F、錯
更多答案下載:(www.)


第45題,數(shù)據(jù)科學(xué)具有廣泛的應(yīng)用領(lǐng)域,可以應(yīng)用在社交網(wǎng)絡(luò)、職業(yè)體育、政治競選
T、對
F、錯
正確答案:


第46題,探索性數(shù)據(jù)分析的特點是研究從原始數(shù)據(jù)入手,完全以實際數(shù)據(jù)為依據(jù)。
T、對
F、錯
更多答案下載:(www.)


第47題,決策樹學(xué)習(xí)的算法通常是一個遞歸地選擇最優(yōu)特征,并根據(jù)該特征對訓(xùn)練數(shù)據(jù)進行分割,使得各個子數(shù)據(jù)集有一個最好的分類的過程,這一過程對應(yīng)著特征空間的劃分,也對應(yīng)著決策樹的構(gòu)建
T、對
F、錯
更多答案下載:(www.)


第48題,給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會發(fā)生。
T、對
F、錯
正確答案:F


第49題,信息熵越大,數(shù)據(jù)信息的不確定性越小。
T、對
F、錯
正確答案:F


答案來源:(www.),對于分類數(shù)據(jù),經(jīng)常使用表格,來統(tǒng)計各種類別的數(shù)據(jù)出現(xiàn)的頻率。
T、對
F、錯
更多答案下載:(www.)














  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部