南开大学22春学期《网络爬虫与信息提取》在线作业答卷.docx
《南开大学22春学期《网络爬虫与信息提取》在线作业答卷.docx》由会员分享,可在线阅读,更多相关《南开大学22春学期《网络爬虫与信息提取》在线作业答卷.docx(4页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、22春学期(高起本1709-1803、全层次1809-2103)网络爬虫与信息提取在线 作业-00002试卷总分:100得分:100一、单选题(共20道试题,共40分)1. Python 中 Object= obj_T : T, obj_2, : 2,则 Objcet. get ( boj_3, 3) 是()A. 12B. 3D.无输出答案:C2.如果使用Python的数据结构来做类比的话,MongoDB中库相当于一个。A.列表B.元组C.字典0.集合答案:C.在Scrapy的目录下,哪个文件负责存放爬虫的各种配置信息?()A. spiders文件夹item, pyB. pipeline, p
2、ysettings, py答案:D.执行下面代码,结果为():name list = if name list and name list100 =张三:print ( OK)A.程序报错OKB. NULLD.无输出答案:B5. PyMongo中查询所有age 29的记录是()A. collection, f ind (* age, : $gt : 29)collection, find( age 29)B. collection, find_all ( age : $gt : 29)collection. find_all (J age 29)答案:A6.如果计算机上连接了很多台手机,查看这
3、些手机串号,需要在终端输入以下命 令:()A.adb deviceB.adb devicesC.adb devices -1D.adb devices -list答案:C.如果使用Python的数据结构来做类比的话,MongoDB中库相当于一个大字典,大 字典里面的每一个键值对都对应了一个集合,Key为0, Value就是一个集合。A.字典.集合的名字C.集合D.文档答案:B8.在 Mac OS 下安装 MongoDB 使用命令()install mongodbA. brewB.apt-getC. sudoapt答案:A在Scrapy的目录下,哪个文件负责存放爬虫文件?()A. spiders
4、文件夹item, pyB. pipeline, pysettings, py答案:A一般来说在页面传输登录信息都用HTTP。请求类型A. GETPOSTB. PUTSEND答案:BPython 中若定义 object=1, 2, 3, 4, 5,则 print (object -4)输出()A. NULL2C.4D.程序报错答案:BPython中列表可以用()方法在末尾添加元素A. addB.appendC. plusI). + 答案:B13.以下哪个命令是创建文件夹命令()A. curlB.tar -zxvfmkdirC. cp答案:C14.某些网站在发起Ajax请求时会携带()字符串用于身
5、份验证A.TokenB.CookieC.ReqTimeD. sum答案:A15. Redis中读取数据语句1 range chapter 0 3,那么表示读列表中()个值2A. 34B. 5答案:C16. HTTP常用状态码表明服务器正忙的是0500A. 503403B. 404答案:B17.以下哪个命令是利用URL语法在命令行下工作的文件传输工具()A. curlB.tar -zxvfmkdirC. cp答案:A18. Python读CSV文件需要哪个方法()A. CSVReaderB.CsvReaderC.DictReaderD.FileReader答案:c19.如果很多爬虫同时对一个网站
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 网络爬虫与信息提取 南开大学 22 学期 网络 爬虫 信息 提取 在线 作业 答卷
限制150内