22春南开大学《网络爬虫与信息提取》在线作业二满分答案
1. lxml库中etree模块的(  )方法把Selector对象转换为bytes型的源代码数据。
参考答案:A
2. 以下HTTP状态码表示服务器没有正常返回结果的是(  )。
A.200
B.301
C.404
D.500
参考答案:BCD
3. 插入数据时,MongoDB会自动添加一列“_id”,也就是自增ID,每次自动加1。(  )
T.对
F.错
参考答案:F
4. 以下哪些可以独立成为Python编译器(  )
以下哪些可以独立成为Python编译器(  )
A.Pycharm
B.IDLE
C.Eclipse
D.Visual Studio 2010
参考答案:AB
5. 对Charles设置代理时,Ip可以设置为127.0.0.1,端口为8888。(  )
T.对
F.错
参考答案:T
6. 自动填充验证码的方式有(  )
自动填充验证码的方式有(  )
A.手动识别填写
B.图像识别
C.打码网站
D.浏览器自动识别
参考答案:BC
7. 下列哪项不是HTTP的请求类型(  )
下列哪项不是HTTP的请求类型(  )
A.GET
B.POST
C.PUT
D.SET
参考答案:D
8. 为了保证数据插入效率,在内存允许的情况下,应该一次性把数据读入内存,尽量减少对MongoDB的读取操作。(  )
T.对
F.错
参考答案:T
9. 是一种规范,在法律范畴内。(  )
A.正确
B.错误
参考答案:B
10. 使用UI Automatorr输入文字的操作是得到相应控件后使用命令(  )
使用UI Automatorr输入文字的操作是得到相应控件后使用命令(  )
A.settext
B.set
C.set_text
<
参考答案:C
11. 在安装Scarpy的依赖库时,由于Visual C++ Build Tools的安装速度很慢,为了节省时间,可以和安装Twisted同时进行。(  )
T.对
F.错
参考答案:F
12. 在Mac OS下安装MongoDB使用命令(  )install mongodb。
A.brew
B.apt-get
C.sudo
D.apt
参考答案:A
13. 浏览器用来记录用户状态信息的数据叫(  )
浏览器用来记录用户状态信息的数据叫(  )
A.session
D.selenium
参考答案:B
14. Python并导入uiautomator来操作设备的语句是from uiautomator
import(  )
Python并导入uiautomator来操作设备的语句是from uiautomator import(  )
A.Device
B.Devices
C.Jobs
D.Job
参考答案:A
15. MongoDB在频繁读写方面优于Redis。(  )
MongoDB在频繁读写方面优于Redis。(  )
A.正确
B.错误
参考答案:B
16. 当爬虫创建好了之后,可以使用"scrapy(  )"命令运行爬虫。
A.startup
B.starwar
C.drawl
参考答案:D
17. chrome开发者工具没法对数据进行搜索。如果想知道一个特定的异步加载内容来自哪个请求,必须在“Network”选项卡里面一个请求一个请求地进行查看。(  )
T.对
F.错
参考答案:T
18. 默认情况下,MongoDB可以通过外网访问。(  )
默认情况下,MongoDB可以通过外网访问。(  )
A.正确
B.错误
参考答案:B
19. 在有spiders何setting.py这两项的情况下,可以写出爬虫并且保存数据,items.py和pipelines.py文件是原作者的失误而导致的冗余文件。(  )
scrapy分布式爬虫
T.对
F.错
参考答案:F
20. 已经创建好的Scrapy爬虫*.py文件可以直接通过Python来运行。(  )
A.正确
B.错误
参考答案:B
21. Python中(  )容器有推导式。
Python中(  )容器有推导式。
A.列表
B.元组
C.字典
D.集合
参考答案:ACD
22. 网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。(  )
网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。(  )
A.正确
B.错误
参考答案:B
23. Python中(  )容器有推导式
Python中(  )容器有推导式
A.列表
B.元组
C.字典
D.集合
参考答案:ACD
24. Python中把列表转换为集合需要使用(  )函数。
A.set
B.list