随笔分类 - spark
摘要:第一种: 安装官方的插件制作方法制作完,我讲讲如何让插件显示出来: 运行spark的主build.xml 这时候 如果你运行bin下的startup.bat,没能看到插件 现在运行你制作的插件的build.xml 生成的XXX.jar包 将XXX.jar放在target下的plugins目录里 你运行startup.bat 看到了是吧 亲 然后build目录里的ins...
阅读全文
摘要:今天精简Spark代码之后发现插件不加载。。因为Spark有至少两种插件加载方式: 一种是手动加载 也就是比如说在workspace里 new 一个TestPlugin() 然后initialize()另一种就是官方的加载方式,安装官方的说明生成jar之后拷贝到target下的plugins目录下但是官方的插件加载方式有个前提:APPLICATION_VERSION = 1.0.0 进行比较。 所以要想运行插件,application-version 不能太低了。一般就是2.6.0;注意:如下http://www.hutud.com/index.php/archives/389今天修改了spa
阅读全文
摘要:http://blog.csdn.net/tyj1982/article/details/6686546 在build/installer目录下,打开spark.install4j文件,做如下修改 <languages skipLanguageSelection="true"> <principalLanguage id="zh_CN", customLocal...
阅读全文
摘要:可以删除target 目录 target 目录可以通过运行Spark的主build.xml得到 需要运行各个插件source folder 下的build.xml 才会在target/plugins/下生成相应的插件jar包 运行target下的startup.bat 目的是用于测试做成exe安装文件时程序运行情况 运行target下的startup.bat就相当于运行安装好的spark....
阅读全文
摘要:http://phoenixtoday.blogbus.com/logs/17878527.html Spark 是一个基于XMPP 协议,用Java 实现的IM 客户端。它提供了一些API,可以采用插件机制进行扩展,上图中,“部门”部分就是使用插件机制扩展出来的新功能。要想实现你的扩展,首先要了解 Spark API的架构,其中最关键的是要了解它的工厂类,这些工厂类可以获得Spark 提...
阅读全文
摘要:<path id="lib.classpath"> <fileset dir="${spark.libs.dir}" includes="**/*.jar, **/*.zip"/>target目录下的lib <fileset dir="${plug.lib.dist.dir}" includes="**/*.jar, **/*.zip"/>在插件plugins目录下的lib里的dist目录 <fileset dir="${spark.home}
阅读全文
摘要:spark插件删除步骤当需要删除插件时,1.删除在../target/build/pulgins/**.jar,2.在运行../targer/build/bin/start.bat时,该start.bat文件默认,在C:\Documents and Settings\gty\(gty电脑用户名)下创建spark文件,需要删除该spark/plugins/**.jar
阅读全文
摘要:http://dongfred1219.blog.163.com/blog/static/34280675201141803235546/Spark开发记录(windows环境)一、按照“Spark源代码编译生成全攻略”文档搭建开发环境。一、按照“Spark源代码编译生成全攻略”文档搭建开发环境。二、直接SVN下载来的源码可能无法在eclipse编译通过,原因spark源代有apple和其它插件支持,需要其它jar包支持,为了编译通过,可以将plugins下报错的相关文档删除。根据eclipse的错误提示来。一般是apple、growl、reversi等
阅读全文
摘要:spark 官方默认使用字体大小为11 中文显示极其难看 至少得搞个12修改方法:查找 : 关键字 new Font 和setFont 将所有12以下的改成12OK....................
阅读全文

浙公网安备 33010602011771号