五杀摇滚小拉夫

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 19 下一页

2018年10月25日

摘要: 主线程A中,创建了子线程B,并且在主线程A中调用了B.setDaemon(),这个的意思是,把主线程A设置为守护线程,这时候,要是主线程A执行结束了,就不管子线程B是否完成,一并和主线程A退出. 这就是setDaemon方法的含义,这基本和join是相反的。 此外,还有个要特别注意的:必须在star 阅读全文
posted @ 2018-10-25 16:07 五杀摇滚小拉夫 阅读(660) 评论(0) 推荐(0)

摘要: 1.单线程实例: 代码如下: from time import ctime,sleep def music(A): for i in range(2): print ("I was listening to %s. %s" % (A, ctime())) sleep(1) def eat(B): for i in range(2): ... 阅读全文
posted @ 2018-10-25 15:31 五杀摇滚小拉夫 阅读(474) 评论(0) 推荐(0)

摘要: 2.Hadoop的框架最核心的设计就是: HDFS: HDFS为海量的数据提供了存储 MapReduce: MapReduce则为海量的数据提供了计算 3.Hadoop的优点: 【高可靠性】:假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。 【高效性】:以并 阅读全文
posted @ 2018-10-25 14:14 五杀摇滚小拉夫 阅读(886) 评论(0) 推荐(0)

摘要: scrapy爬虫采集数据存入mongodb采集效果如图: 1.首先开启服务切换到mongodb的bin目录下 命令:mongod --dbpath e:\data\db 另开黑窗口 命令:mongo.exe 2.连接可视化工具 studio—3t 建立本地连接 如图: 3.代码如下 采集的是玻璃网站产品数据 http://www.boliwang.co... 阅读全文
posted @ 2018-10-25 12:34 五杀摇滚小拉夫 阅读(621) 评论(0) 推荐(0)

2018年10月24日

摘要: 针对文件下载文件重命名文件后缀的获取,此方式只适用url里有后缀的情况(其它的要根据情况去用类似方式获取字段后缀)。 import os A="http://www.铜陵市建筑工程信息网.com/App_Files/Files/价格信息2018.3期.docx_440910582001.docx" B=os.path.splitext(A) print(B) print(B[1]) 阅读全文
posted @ 2018-10-24 15:53 五杀摇滚小拉夫 阅读(307) 评论(0) 推荐(0)

摘要: 解决图片下载重命名保存本地,直接上代码(在原来代码做了一定的修改)。总结:主要就是添加配置一个内置的函数,对保存的东西进行修改再存储,主要问题还是再piplines的设置里面。效果如图: hm5988.py # -*- coding: utf-8 -*- import scrapy from hm5988_web.items import Hm5988WebItem class Hm... 阅读全文
posted @ 2018-10-24 11:40 五杀摇滚小拉夫 阅读(472) 评论(0) 推荐(0)

摘要: 这里是直接拿之前未配置代码做修改,主要问题就是在piplines中添加修改配置文件(先解决文件下载问题,图片其实也类似) 效果如图: 北京造价信息网站爬虫 bjjs.py # -*- coding: utf-8 -*- import scrapy import re from bjjs_web.items import BjjsWebItem class BjjsSpider(scr... 阅读全文
posted @ 2018-10-24 11:32 五杀摇滚小拉夫 阅读(566) 评论(0) 推荐(0)

摘要: 时间复杂度:O(n²) 空间复杂度:O(1) 稳定性:稳定 2.选择排序 时间复杂度:O(n²) 空间复杂度:O(1) 稳定性:不稳定 3.冒泡排序 时间复杂度:O(n²) 空间复杂度:O(1) 稳定性:稳定 阅读全文
posted @ 2018-10-24 09:47 五杀摇滚小拉夫 阅读(136) 评论(0) 推荐(0)

2018年10月23日

摘要: —————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————————— 阅读全文
posted @ 2018-10-23 14:24 五杀摇滚小拉夫 阅读(273) 评论(0) 推荐(0)

摘要: 配置spiderkeeper管理scrapy爬虫 1.安装所需文件包pip install spiderkeeper pip install scrapyd pip install scrapy_client 2.切换到scrapy文件目录下打包文件(生蛋)。 3.开启scrapyd服务,开启spiderkeeper服务。 4.进入127.0.0.1:5000 输入默认账号... 阅读全文
posted @ 2018-10-23 11:31 五杀摇滚小拉夫 阅读(588) 评论(0) 推荐(0)

上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 19 下一页