南開(kāi)22春學(xué)期《網(wǎng)絡(luò)爬蟲(chóng)與信息提取》在線作業(yè)【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2022-08-09 18:05:46來(lái)源:admin瀏覽: 38 次

22春學(xué)期(高起本1709-1803、全層次1809-2103)《網(wǎng)絡(luò)爬蟲(chóng)與信息提取》在線作業(yè)-00001

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.如果使用Python的數(shù)據(jù)結(jié)構(gòu)來(lái)做類比的話,MongoDB中庫(kù)相當(dāng)于一個(gè)大字典,大字典里面的每一個(gè)鍵值對(duì)都對(duì)應(yīng)了一個(gè)集合,Key為(),Value就是一個(gè)集合。

A.字典

B.集合的名字

C.集合

D.文檔


2.Redis若要進(jìn)入交互環(huán)境,需要打開(kāi)終端輸入()

A.redis-cli

B.redis

C.redis-cmd

D.redis-start


3.xpath中extract方法返回值類型是()

A.列表

B.元組

C.字典

D.集合


4.Scrapy自帶的待爬隊(duì)列是()

A.deque

B.queue

C.list

D.lqueue


5.請(qǐng)問(wèn)按哪個(gè)鍵可以打開(kāi)Chrome自帶的開(kāi)發(fā)者工具()

A.F10

B.F1

C.F11

D.F12


6.服務(wù)器端記錄信息確定用戶身份的數(shù)據(jù)是

A.session

B.cookies

C.moonpies

D.localstorage


7.以下關(guān)于Charles的說(shuō)法正確的是( )

A.Charles是一個(gè)跨平臺(tái)的HTTP抓包工具,可以截取HTTP或者HTTPS請(qǐng)求的數(shù)據(jù)包

B.Charles有Windows 32/64版和Linux 64 版,但是目前還沒(méi)有對(duì)Mac OS進(jìn)行有效的支持。

C.Charles上面滾動(dòng)的數(shù)據(jù)就是目前計(jì)算機(jī)發(fā)起的數(shù)據(jù)包。單擊工具欄上面的黃色笤帚圖標(biāo),可以清停止抓包。

D.在Charles啟動(dòng)時(shí),系統(tǒng)自帶瀏覽器的部分HTTP流量不會(huì)經(jīng)過(guò)Charles。


8.MongoDB中數(shù)據(jù)存儲(chǔ)的形式類似于()

A.列表

B.元組

C.字典

D.集合


9.一般來(lái)說(shuō)在頁(yè)面?zhèn)鬏數(shù)卿浶畔⒍加肏TTP()請(qǐng)求類型

A.GET

B.POST

C.PUT

D.SEND


10.使用了RedisSpider作為爬蟲(chóng)的父類以后,爬蟲(chóng)會(huì)直接監(jiān)控()中的數(shù)據(jù),并不讀取start_urls中的數(shù)據(jù)。

A.Redis

B.RedisSpider

C.Spider

D.MongoDB


11.當(dāng)需要把Python里面的數(shù)據(jù)發(fā)送給網(wǎng)頁(yè)時(shí),需要先轉(zhuǎn)換成()字符串

A.Python

B.Json

C.正則表達(dá)式

D.Ajax


12.lxml庫(kù)中etree模塊的()方法把Selector對(duì)象轉(zhuǎn)換為bytes型的源代碼數(shù)據(jù)

A.etree.tostring

B.etree.convertBytes

C.etree.toBytes

D.etree.convertstring


13.Python中以下哪個(gè)容器里的元素不能重復(fù)()

A.列表

B.元組

C.字典

D.集合


14.通常使用()工具來(lái)模擬瀏覽器進(jìn)行爬蟲(chóng)請(qǐng)求

A.Selenium

B.Chrome

C.ChromeDriver

D.WebDriver


15.下面Python代碼輸出為(): def default_para_trap(para=[], value=0): para.append(value) return para print('第一步:{}'.format(default_para_trap(value=100))) print('第二步:{}'.format(default_para_trap(value=50)))

A.第一步:[100] 第二步:[100,50]

B.第一步:[100] 第二步:[50]

C.第一步:[100] 第二步:[]

D.第一步:[100] 第二步:[100]


16.Python中若定義object=[1, 2, 3, 4, 5],則print(object[:3])輸出()

A.12

B.123

C.23

D.234


17.使用Xpath構(gòu)造屬性值包含相同字符串的路徑采用()方法

A.contain

B.contains

C.include

D.includes


18.使用UI Automatorr長(zhǎng)按點(diǎn)擊的操作是得到相應(yīng)控件后使用命令()

A.longclick

B.long_click

C.clicklong

D.click_long


19.HTTP常用狀態(tài)碼表明服務(wù)器上沒(méi)有請(qǐng)求的資源的是()

A.500

B.503

C.403

D.404


20.Scrapy_redis是Scrapy的“()”,它已經(jīng)封裝了使用Scrapy操作Redis的各個(gè)方法

A.組件

B.模塊

C.控件

D.單元


二、多選題 (共 10 道試題,共 20 分)

21.Python中有哪些實(shí)現(xiàn)多線程方法()

A.multiprocess.dummy

B.threading.Thread

C.process

D.PyMongoDB


22.最常見(jiàn)的HTTP請(qǐng)求類型有()

A.GET

B.POST

C.SEND

D.RECEIVE


23.Redis中的值可以支持()

A.列表

B.哈希

C.集合

D.有序集合


24.常用的會(huì)話跟蹤技術(shù)是

A.session

B.cookies

C.moonpies

D.localstorage


25.以下哪種方法是MongoDB的查找方法()

A.find

B.find_one

C.finds

D.find_all


26.針對(duì)解析源代碼的BeautifulSoup對(duì)象,構(gòu)造時(shí)BeautifulSoup(網(wǎng)頁(yè)源代碼, '解析器')中的解析器可以為()

A.html

B.html.parser

C.lxml

D.xml


27.Python中一個(gè)函數(shù)可以有()個(gè)return語(yǔ)句

A.0

B.1

C.多個(gè)

D.2


28.Python中的容器有()

A.列表

B.元組

C.字典

D.集合


29.Python中一個(gè)函數(shù)沒(méi)有返回值則可以寫(xiě)()

A.沒(méi)有return

B.return

C.return None

D.return NULL


30.下列關(guān)于在IOS上配置charles的說(shuō)法正確的是()

A.不同ios設(shè)備之間會(huì)有比較大的差別,所以配置的時(shí)候需要找到對(duì)應(yīng)的安裝證書(shū)的入口。

B.手機(jī)和電腦需要在同一個(gè)局域網(wǎng)下。

C.HTTP代理可以使用“自動(dòng)”選項(xiàng)。

D.安裝好證書(shū)以后,打開(kāi)iOS設(shè)備上的任何一個(gè)App,可以看到Charles中有數(shù)據(jù)包在流動(dòng)


三、判斷題 (共 20 道試題,共 40 分)

31.Python中使用下面代碼打開(kāi)文件也需要對(duì)文件進(jìn)行close關(guān)閉操作 with open('文件路徑', '文件操作方式', encoding='utf-8') as f


32.在charles中使用CTRL+F搜索,JSON里面的中文是可以直接搜索到的。


33.Scrapy每一次發(fā)起請(qǐng)求之前都會(huì)在這里檢查網(wǎng)址是否重復(fù)。因此如果確實(shí)需要再一次爬取數(shù)據(jù),在Redis中把這個(gè)Key刪除即可。


34.插入數(shù)據(jù)時(shí),MongoDB會(huì)自動(dòng)添加一列“_id”,也就是自增ID,每次自動(dòng)加1


35.Python正則表達(dá)式中“.*”是貪婪模式,獲取最長(zhǎng)的滿足條件的字符串。


36.使用Scrapyd,可以實(shí)現(xiàn)一鍵部署Scrapy爬蟲(chóng),訪問(wèn)一個(gè)網(wǎng)址就啟動(dòng)/停止爬蟲(chóng)


37.Python中元組生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù);


38.如果目標(biāo)網(wǎng)站本身就是提供公眾查詢服務(wù)的網(wǎng)站,那么使用爬蟲(chóng)是合法合規(guī)的。


39.HTTP狀態(tài)碼302與307完全同義。


40.如果元組里面只有整數(shù)、浮點(diǎn)數(shù)、字符串、一個(gè)列表,就既不能添加數(shù)據(jù),也不能刪除數(shù)據(jù),還不能修改里面數(shù)據(jù)的值。


41.HTTP狀態(tài)碼302表示資源永久重定向。


42.使用異步加載技術(shù)的網(wǎng)站,被加載的內(nèi)容可以在源代碼中找到


43.Python中條件語(yǔ)句在使用and連接的多個(gè)表達(dá)式中,只要有一個(gè)表達(dá)式不為真,那么后面的表達(dá)式就不會(huì)執(zhí)行。


44.當(dāng)運(yùn)行爬蟲(chóng)代碼后,出現(xiàn)"Forbidden by robots.txt"提示后,說(shuō)明當(dāng)前時(shí)間段被爬取的網(wǎng)站無(wú)法訪問(wèn)。


45.在請(qǐng)求頭中設(shè)置User-Agent即可正常請(qǐng)求網(wǎng)站


46.爬蟲(chóng)中間件的激活需要另外寫(xiě)一個(gè)文件來(lái)進(jìn)行


47.在Ubuntu下若要運(yùn)行Redis可以使用CMD進(jìn)入解壓以后的文件夾并運(yùn)行命令redis-server.exe redis.windows.conf啟動(dòng)Redis


48.當(dāng)使用Charles監(jiān)控iOS設(shè)備或者Android設(shè)備的數(shù)據(jù)包以后,打開(kāi)微信小程序,小程序的數(shù)據(jù)包不能自動(dòng)被Charles抓住,需要另作處理。


49.charles配置中,安裝完成證書(shū)以后,在設(shè)置中打開(kāi)“關(guān)于本機(jī)”,找到最下面的“證書(shū)信任設(shè)置”,并在里面啟動(dòng)對(duì)Charles證書(shū)的完全信任。


50.Python中寫(xiě)CSV文件的writerows方法參數(shù)為字典類型



奧鵬,國(guó)開(kāi),廣開(kāi),電大在線,各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請(qǐng)咨詢QQ : 3230981406或微信:aopopenfd777


作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部