Spark 插件不加载

 

今天精简Spark代码之后发现插件不加载。。

因为Spark有至少两种插件加载方式: 一种是手动加载 也就是比如说在workspace里 new 一个TestPlugin() 然后initialize()

另一种就是官方的加载方式,安装官方的说明生成jar之后拷贝到target下的plugins目录下

但是官方的插件加载方式有个前提:APPLICATION_VERSION = 1.0.0 进行比较。 所以要想运行插件,application-version 不能太低了。一般就是2.6.0;

注意:如下

http://www.hutud.com/index.php/archives/389

 

今天修改了spark后,插件无法加载。 最后找到原因了,在spark启动的时候 有个pluginmanager进行加载插件,

                    minVersion = plugin1.selectSingleNode("minSparkVersion").getText();

                    String buildNumber = JiveInfo.getVersion();
                    boolean ok = buildNumber.compareTo(minVersion) >= 0;

                    if (!ok) {
                        return null;
                    }
               但是他会跟default.properties中的 APPLICATION_VERSION = 1.0.0 进行比较。 所以要想运行插件,application-version 不能太低了。一般就是2.6.0;

posted @ 2013-05-28 11:06  IamThat  阅读(312)  评论(0编辑  收藏  举报