02 2020 档案

摘要:网站的安全性战术分为:与抵抗攻击有关的战术、与检测攻击有关的战术以及从攻击中恢复有关的战术。 抵抗攻击 对用户身份验证。简单加入用户登陆即可。 对原项目修改采用spring security来作为SpringBoot的身份验证和权限授予的插件。 在pom.xml中加入 <dependency> <g 阅读全文
posted @ 2020-02-26 19:32 limitCM 阅读(286) 评论(0) 推荐(0)
摘要:可用性 一般场景:双十一淘宝网交易人数过多时: 场景 可能的值 刺激源 淘宝客户 刺激 人数过多,网站响应时间过迟 制品 系统的处理器 环境 正常操作 响应 继续运行,响应时间边迟 响应度量 响应时间延迟2-5秒 可修改性 一般场景:淘宝主店铺界面修改: 场景 可能的值 刺激源 淘宝卖家 刺激 更新 阅读全文
posted @ 2020-02-23 13:25 limitCM 阅读(188) 评论(0) 推荐(0)
摘要:上网课喜欢摸鱼。。管不住啊。 这周本来准备学习更多关于知识图谱的内容,但碍于作业需要补一些,所以可能进度拖后了。 这周关于python学到的新东西包括—— python基础 python列表的切分步长,如果取负值就会逆顺序读取,就可以实现reverse函数的功能,但可以返回值。(浅复制,实际不能这么 阅读全文
posted @ 2020-02-22 20:27 limitCM 阅读(136) 评论(0) 推荐(0)
摘要:学习计算机技术的过程中往往会遇到一个问题:这个东西是干什么的。如果能弄清这个问题的答案,那就能理解我们所要学习的技术的整体架构。在这就有了架构这个概念。 架构是什么 在弄清架构是什么之前,更需要弄清我们日常生活中常见事务的过程,这是因为计算机是个神奇的领域,在需求我们的创造力的同时,更需要我们的逻辑 阅读全文
posted @ 2020-02-19 16:44 limitCM 阅读(143) 评论(0) 推荐(0)
摘要:电脑修好了,但之前落下的几天博客确实没啥补的劲头,今天先写一份报告吧。 实验内容和要求 安装 Flume 安装成功。 使用 Avro 数据源测试 Flume 配置文件 启动flume agent a1 创建指定的日志文件 客户端传输 传输完成 使用 netcat 数据源测试 Flume 创建exam 阅读全文
posted @ 2020-02-13 22:19 limitCM 阅读(184) 评论(0) 推荐(0)
摘要:这几天主要还是看高数和数据结构。。另外看了几个关键词提取的算法,之后试试。 阅读全文
posted @ 2020-02-11 21:18 limitCM 阅读(83) 评论(0) 推荐(0)
摘要:这两天电脑又出问题了,准备换风扇。 这两天看了张宇的数学,了解了函数极限以及数学的魅力,嗯。 阅读全文
posted @ 2020-02-08 19:57 limitCM 阅读(99) 评论(0) 推荐(0)
摘要:开学的日子越来越捉摸不定了,唉。 今天主要是把北京市政百姓信件分析实战这个作业做了,因为之前一直摸鱼的关系,今天一天做了太多东西(还没做完)。 最首先是爬取数据,我在找到了读取列表的api,所以我几乎把爬取数据、清洗数据、挖掘数据全给跳过了。。(放心,之后我还是要做一遍,因为还有一些功能没完成以及另 阅读全文
posted @ 2020-02-06 22:47 limitCM 阅读(157) 评论(0) 推荐(0)
摘要:今天主要完成了北京市政百姓信件分析实战。 Spark方面只是安装了Flume,以及尝试使用套接字流作为DSteam的数据源。 启动NetCat作为套接字的监听模式,这样在端口9999就能和spark互联。 值得一提,nc -l 9999 虽然也是适用的,-k是为了可以保持多个连接,所以应该还是必要的 阅读全文
posted @ 2020-02-05 22:44 limitCM 阅读(137) 评论(0) 推荐(0)
摘要:今天没干啥,修电脑,过。 阅读全文
posted @ 2020-02-04 21:38 limitCM 阅读(94) 评论(0) 推荐(0)
摘要:放弃编译了,Spark连最基本的hive都不支持就当成hive被抛弃了吧。垃圾hadoop。 虽然如此,但还是很头疼,这样一来只能把最基本的CVS文件当成数据库来使用,这样虽然也挺方便,但总归只是成为折中之举,或许在以后会有更好的解决方案,现在姑且如此。 所以今天还是来写写所学内容。 今天算是仔细学 阅读全文
posted @ 2020-02-03 21:08 limitCM 阅读(137) 评论(0) 推荐(0)
摘要:因为想要通过hive作为数据库来保存爬取后和处理完成的数据,需要添加spark的hive支持,这方面还没编译完,所以今天暂时没有这方面的进度,所以写写SparkSteaming。 数据的价值随着时间的流逝而减少 这也正是MapReduce的使用范围所产生的的极大弊端,没法应对大流量的实时数据,MR这 阅读全文
posted @ 2020-02-02 21:12 limitCM 阅读(116) 评论(0) 推荐(0)
摘要:开始尝试sparkSQL的尝试编程。 SparkSQL总体来说就是spark中的hive,但麻烦的一点是spark官网下载的并不自带对hive的支持,所以不能使用外部的hive。之后解决。 所以这次主要关注dataframe的编程。 首先创建了一个json文件用来创建DataFrame,内容为: { 阅读全文
posted @ 2020-02-01 22:32 limitCM 阅读(120) 评论(0) 推荐(0)