话说上期概括了一下通用的XML读取方式,不过平时我们未必要用到XML源的全部数据,所以我又实验了一下读取部分数据的情况,比如根据标题的开头字母,出现位置进行筛选。

  对于三种随机读取方式来说,只要改变查询条件即可

  XmlDocument:

var nodeList = doc.DocumentElement.SelectNodes("item[substring(title,1,1)='M'][position() mod 10 = 0]");

  XPathNavigator:

var nodeList = nav.Select("/channel/item[substring(title,1,1)='M'][position() mod 10 = 0]");

  Xml Linq:

var nodelist = from node in xd.XPathSelectElements("/channel/item[substring(title,1,1)='M'][position() mod 10 = 0]")

  使用XPath,只要改一行代码。XPath也相当容易掌握,比SQL简单得多。可以参考W3C Shcool的语法介绍以及MSDN 针对XPath用户的LINQ To XML,一刻钟功夫你就能掌握其中奥秘。

  但对XmlReader方式,可没那么容易了,同样是读title以M开头,每十项取一项,想了半天,楞是没想出个优雅点的实现方式,只好如此:

代码
static List<Channel> testXmlReader2()
{
var lstChannel
=new List<Channel>();
var reader
= XmlReader.Create(xmlStream);
int n =0;Channel channel =null;
Search:
while (reader.Read())
{
if (reader.Name =="item"&& reader.NodeType == XmlNodeType.Element)
{
while (reader.Read())
{
if (reader.Name =="item") break;
if (reader.NodeType != XmlNodeType.Element) continue;

switch (reader.Name)
{
case"title":
var title
= reader.ReadString();
if (title[0] !='M') goto Search;
n
++;
if (n %10!=0) goto Search;
channel
=new Channel();
channel.Title
= title;
break;
case"link":
channel.Link
= reader.ReadString();
break;
case"description":
channel.Description
= reader.ReadString();
break;
case"content":
channel.Content
= reader.ReadString();
break;
case"pubDate":
channel.PubDate
= reader.ReadString();
break;
case"author":
channel.Author
= reader.ReadString();
break;
case"category":
channel.Category
= reader.ReadString();
break;
default:
break;
}
lstChannel.Add(channel);
}
}
}
return lstChannel;
}

  可以看到,代码结构发生了明显变化。为了作条件筛选,只得增加局部变量n,调整了实体类初始化,和加入集合语句的所在位置,甚至被迫用了遗忘多年的goto语句进行跳转(VB还好些)。业务逻辑渗进了代码细节的实现,用老赵的话说就是,一阵语法噪音的气息扑面而来。

  XmlTextReader的实现代理类XmlTextReaderImp(internal的,不能直接用),是个有上万行代码超级类,封装了大量直接对Xml字符级进行的操作。由于操作很接近底层,宏观上很难找到太好的代码优化方式。如果筛选条件,也就是业务逻辑再复杂一点,代码就会面目全非,可理解性可维护性如镜花水月。

  现在再来比较一下时间性能:

XmlDocment 26ms
XPathNavigator 26ms
XmlTextReader 20ms
Xml Linq 28ms

  四种方式数据变得接近了,Document和Navigator消耗时间大幅下降,Reader方式下降不多,因为仍然要从头Read到底,减少的3ms可以认为由于减少了实体对象创建的开销。比较蹊跷的是Linq方式,居然没有变化,落在了最后。

  可以测试不同的查询条件,能看出这四种方式各有其性能极限,与Xml源的大小有关。比如对于前两种方式,就取决于XmlDocument.Load方法执行时间,在我本机上,Load这个Xml就需要23ms。Linq方式也不是雷打不动,如果处理的结果很少,执行时间会降1~2毫秒。

  Document和Navigator方式,性能会随数据量增大而明显下降。很容易猜到,是因为它们创建了许多无用对象的缘故。看一下各方式内存占用便知,在数据全部加载不筛选情况下,Document方式占用了23.3M左右的内存,而Navigator方式只要22.9M左右,这也解释了为什么Document方式性能下降更明显。Reader方式数据全加载,只要20.1M左右内存,除去程序启动本身的开销,较前两种内存占用不到一半。Linq方式在内存方面又有惊艳表现,只比Reader方式多占了不到500k。

  进一步的分析,得出了进一步的结论:除非有特别需要,慎用XmlTextReader,它对变化准备不足,容易出错。更加强烈推荐使用Linq方式,虽然某些情况下时间性能略低于Navigator方式,但优异的内存占用表现,奠定了它的首选地位。而且我相信,未来的Linq To XML,还会更加强大。

posted on 2010-08-15 22:05  小城故事  阅读(2351)  评论(4编辑  收藏  举报