摘要: 可能有些朋友不明白啥是H5,但其实生活中我们经常会碰到。 比如,你经常收到的朋友虐狗第一式—结婚请贴。 你的朋友圈,可能会经常看到宝妈们虐狗第二式—晒可爱宝宝的相册。 你有可能也收到过这样,非常直观,充满激情和诱惑的招聘信息。 等等等等等等... 看到这里你也许恍然大悟,哦,原这就是H5! 没错,我 阅读全文
posted @ 2019-02-10 22:17 chengzipg 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 1、无网络断开网络,显示404或则错误页面的是H5 2、页面布局a.在手机设置、开发者选项中开启显示布局边界功能;b.进入应用查看布局边界;c.原生应用可以看到各个控件的布局边界,H5只有整个页面的一个边界 (注:开发者工具是进入<关于手机>,找到<版本号>,有的手机这个版本号是在更多信息里,连续双 阅读全文
posted @ 2019-02-10 21:58 chengzipg 阅读(397) 评论(0) 推荐(0) 编辑
摘要: 步骤一 安装Jmeter 我用的版本是3.1版本,为什么是3.1,因为3.2有问题,我也是跑了一段时间后才知道3.2版本太新了还是什么的,有些功能就是不行,在此建议大家,不要轻易使用最新版本,次新版本就可以了。安装好了之后Jmeter的bin目录下有个Jmeter.bat文件,双击就能运行了。 步骤 阅读全文
posted @ 2018-07-31 20:07 chengzipg 阅读(429) 评论(0) 推荐(0) 编辑
摘要: 使用如下命令执行应用程序: 和"基于YARN的Resource Manager的Client模式(集群)"运行模式,区别如下: 在Resource Manager端提交应用程序,会生成SparkSubmit进程,该进程只用来做Client端,应用程序提交给集群后,就会删除该进程。 Resource 阅读全文
posted @ 2018-07-16 12:00 chengzipg 阅读(150) 评论(0) 推荐(0) 编辑
摘要: 现在越来越多的场景,都是Spark跑在Hadoop集群中,所以为了做到资源能够均衡调度,会使用YARN来做为Spark的Cluster Manager,来为Spark的应用程序分配资源。 在执行Spark应用程序前,要启动Hadoop的各种服务。由于已经有了资源管理器,所以不需要启动Spark的Ma 阅读全文
posted @ 2018-07-16 11:55 chengzipg 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 这种运行模式和"Spark自带Cluster Manager的Standalone Client模式(集群)"还是有很大的区别的。使用如下命令执行应用程序(前提是已经启动了spark的Master、Worker守护进程)不用启动Hadoop服务,除非你用到了HDFS的内容。 各节点启动的JVM进程情 阅读全文
posted @ 2018-07-16 11:48 chengzipg 阅读(720) 评论(0) 推荐(0) 编辑
摘要: 终于说到了体现分布式计算价值的地方了! 和单机运行的模式不同,这里必须在执行应用程序前,先启动Spark的Master和Worker守护进程。不用启动Hadoop服务,除非你用到了HDFS的内容。 启动的进程如下:(其他非Master节点上只会有Worker进程) 这种运行模式,可以使用Spark的 阅读全文
posted @ 2018-07-16 10:59 chengzipg 阅读(315) 评论(0) 推荐(0) 编辑
摘要: 这种运行模式,和Local[N]很像,不同的是,它会在单机启动多个进程来模拟集群下的分布式场景,而不像Local[N]这种多个线程只能在一个进程下委屈求全的共享资源。通常也是用来验证开发出来的应用程序逻辑上有没有问题,或者想使用Spark的计算框架而没有太多资源。 用法是:提交应用程序时使用loca 阅读全文
posted @ 2018-07-16 10:43 chengzipg 阅读(768) 评论(0) 推荐(0) 编辑
摘要: 本地运行模式 (单机) 该模式被称为Local[N]模式,是用单机的多个线程来模拟Spark分布式计算,直接运行在本地,便于调试,通常用来验证开发出来的应用程序逻辑上有没有问题。 其中N代表可以使用N个线程,每个线程拥有一个core。如果不指定N,则默认是1个线程(该线程有1个core)。 如果是l 阅读全文
posted @ 2018-07-16 10:15 chengzipg 阅读(28950) 评论(0) 推荐(1) 编辑
摘要: 一、Spark支持的安装模式: 1、伪分布式(一台机器即可) 2、全分布式(至少需要3台机器) 二、Spark的安装配置 1、准备工作 安装Linux和JDK1.8 配置Linux:关闭防火墙、主机名、免密码登陆 2、安装部署Spark 解压:tar z-xvf spark-2.1.0-bin-ha 阅读全文
posted @ 2018-07-15 12:51 chengzipg 阅读(334) 评论(0) 推荐(0) 编辑