桦山涧

桦山涧
Asp.net ---->知识改变命运!
  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

WEB2.0概念诠释(根据网络资料归纳)之三

Posted on 2006-09-19 20:06  桦林  阅读(447)  评论(0编辑  收藏  举报
什么是web 2.0(1)

  为下一代软件的设计模式和商业模板

  2001年秋季网络泡沫的破灭标志着互联网的一个转折点。很多人得出结论说,互联网被过分夸大了,实际上,泡沫和随之而来的衰退看上去是所有科技革命的共同特点。衰退是正处于上升期的科技准备占据中央舞台的特色。伪装者被逐出门外,真正的成名故事显示出他们的实力,开始理解一个事物与其他分开的原因。

  Web 2.0的概念开始于O’Reilly与 MediaLive International的一个献计献策会。网络先锋人物和O’Reilly公司副总裁Dale Dougherty指出,网络非但没有破灭,而且随着许多令人激动的新程序和网站让人惊讶的突然规律性出现,网络比以往的作用更重要。更重要的是,在互联网灾难中幸存下来的公司看上去有一些共同的特点。.com公司的垮掉能在某种程度上标志互联网的转折点吗, web 2.0这样的称呼有意义吗?我们同意它的确是,web 2.0大会就这样诞生了。

  在那以后的一年半时间内,web 2.0这个词就无疑已经生根,在Google上有超过950万个引用结果。但仍有大量对web 2.0含义的不同观点,一些人谴责这只不过是一个毫无意义的市场时髦吵作词汇(buzzword),其他人则认为它是一个新的传统概念。

  本文旨在阐明我们通过web2.0想要表达的含义。

  在最初的集体讨论上,我们用例子阐明了我们对web2.0的理解。

  Web 1.0—> Web 2.0

  DoubleClick—>Google AdSense

  Ofoto(网上照片

  贮存和共享服务的提供商)—>Flickr

  Akamai(阿卡迈技术公司)—>BitTorrent

  mp3.com—>Napster

  不列颠百科全书在线—>Wikipedia

  个人网站—>网络日志(博客、部落格)

  evite—>upcoming.org and EVDB

  域名投机买卖—>搜索引擎优化(SEO)

  网页浏览—>每次点击成本

  屏幕抓取—>网络服务

  发表/出版—>参与

  内容管理系统(CMS)—>维基(wiki)

  目录(分类)—>标签(“folksonomy”)

  粘性—>聚合

  这个表格还可以不断往前进。但是,究竟什么可以让我们确定一种程序或道路是web 1.0,而另外一种则是web 2.0呢?(这个问题非常迫切,因为web 2.0 概念已经非常流行,许多公司把它当作市场时髦词汇了,却并不真正理解它的含义。问题特别困难,因为许多对时髦词汇有癖好的创业型公司绝对不是web 2.0。其他有些程序如napster和BT被认为是web2.0,但它们甚至不是适当的网络应用程序!译者注:应该是由于版权问题)

          web 1.0有一些被成功故事以及最有趣的新应用程序证明的原则,下面是列表。

  1,作为平台的网络

  和其他许多重要的概念一样,web2.0没有坚实的分界线,但有重力的核心。可以通过一系列原则和实践把web 2.0形象化,并证明部分或所有原则都在离核心或远或近的地方。

  人们并不认为它是网络服务,但实际上,广告服务是第一个在互联网上普遍开展的服务,第一个广泛展开的组合(mashup、用另外一个词,就是获得了currency of late?不明白啥意思),每个广告横幅都是两家网站之间的无缝合作,向另外一台电脑用户传递整合的页面。Akamai也把网络看成平台,在堆栈的较深层次,建立了透明的缓冲存储器和内容传递网络(CDN),减轻了带宽堵塞的压力。

  即便如此,这些先驱提供有用的对比,因为后加入者在相同问题上,可以有更深入的解决方案、对新平台的特性理解更深刻。DoubleClick 和Akamai都是web 2.0先驱,然而我们也能看出,通过包含额外的web 2.0设计模式,认识更多可能性有多大可能。

  让我们对3个案例演练片刻,了解一些关键因素的差别。

  Netscape vs. Google

  如果说Netscape是web 1.0时代标准的搬运工,google则当然是web 2.0时代标准的搬运工,因为他们的IPO(首次公开募股)界定了各自的时代。因此,让我们以对这两家公司及其各自定位的对比开始。

  Netscape根据旧的软件范例构筑了“作为平台的互联网”,他们的旗舰产品是网页浏览器,一种桌面应用程序,他们的战略是利用在浏览器领域的统治地位,来建立一个高价服务器产品市场。理论上说,控制了浏览器显示内容和应用程序的标准,这给了netscape一种微软在PC市场上的支配力。作为熟悉的外延,和无马马车(horseless carriage,常指老式汽车。第一辆汽车问世时,当时称之为‘无马马车’)构成的汽车相似,网景意图用(网面)webtop代替桌面(desktop),并计划通过信息升级和向webtop推送applets程序来组装webtop,信息和程序则来自愿意购买网景服务器的信息提供商。

  最终,浏览器和网络服务器都成了最普通不过的东西,价值转移到了通过互联网平台传递的服务上。

  与此相反,google从一开始开始就是网络应用程序,从来不卖也不打包,但作为服务传递,顾客也为这种服务直接或间接付帐。没有旧软件工业的任何困扰。没有预定好的软件发布,只有不断的改进。没有许可或出售,只有使用。没有通向其他不同平台、以使顾客在自己的设备上运行软件的端口,只有大量可升级、运行开源操作系统以及自制程序的电脑,公司以外人士从来没有机会目睹。

  实际上,google需要的能力是网景从未面对的:数据库管理。Google不仅仅是收集软件工具,它是专门的数据库。没有数据,这些工具都没有用处,没有软件,数据则无法管理。软件许可和控制API――此前时代的力量杠杆――现在却不相干了,因为软件从来不需要被分发,而只是运作。同时由于没有收集和管理数据的能力,软件的用处不大。实际上,软件的价值与它帮助管理的数据的范围和力度成比例。

  Google的服务不是一台服务器――尽管它通过大量互联网服务器传输,也不是浏览器,尽管它通过用户使用浏览器来体验。它旗舰的搜索服务也不控制内容。与电话很类似,不仅仅是在电话两端,而是在中间的网络。google就在浏览器、搜索引擎与目标内容服务器之间,就像一个在用户和在线体验之间的ENABLER或中间人。

  Netscape和google都可以被描述为软件公司,前者很明显属于诸如lotus微软,甲骨文SAP,之类的软件世界,而google则是和另外一些互联网应用程序很类似,例如eBay Amazon, Napster,DoubleClick和 Akamai.

什么是web 2.0 (2)

  和google类似,DoubleClick是互联网时代真正的孩子。它把软件作为一种服务,在数据管理中有核心的能力。正如上面所说的,它是互联网服务的先驱,甚至早在还没有互联网服务这个名称之前。但是,DoubleClick最终受限于其自身的商业模式。它引入的是1990年代的概念,即互联网是关于出版,而非参与;广告商应该作最后决定,而非顾客;大小很重要,互联网正日益变得由MEDIAMETRIX和其他互联网广告评比公司界定的大型网站操纵。

  结果,DoubleClick骄傲的在网站上宣布:其软件已经成功执行超过2000次。

  与此相比较,Yahoo搜索行销(前Overture)和google adsense早已为无数广告客户分别刊登了广告。

  Overture和google的成功来自对Chris Anderson提到的所谓“长尾”的理解,也就是组成互联网内容大部分的小网站的集体力量。DoubleClick需要正式的销售合同,这使得它们的市场限制在少数几个大型网站。Overture和 Google则知道如何在每个网页上放置广告。更重要的是,他们避开了出版商/广告代理机构的广告模式,诸如横幅广告和弹出广告,而采用最低限度打扰用户、上下文相关、对消费者友好的文本广告。

  Web 2.0训诫:通过杠杆作用,使消费者自助服务和算法数据管理延伸到整个互联网,到达边缘、而不仅仅是中心,到达长尾、而不仅仅是头部。

  没有什么可惊讶的,其他web2.0成功故事也证明了同样的行为。eBay使得个人之间只有数美元的偶然交易变得可能,作为自动的中间媒介。Napster(尽管因为法律原因关闭了)不是通过集中的歌曲数据库建立其网络,而是通过构建一个系统,让每个下载者也变成服务端,这样发展起了网络。

  Akamai vs. BitTorrentt

  类似DoubleClick,Akamai也是经过优化从头部开始做生意,而不是尾部;从中央,而不是边缘。它通过在中央铺平前往高要求网站的道路,对每个在互联网边缘的个人也有益处,它从这些中央网站得到利润。

  和其他P2P运动先驱相似,BT(BitTorrent)为互联网去中心化采取了彻底的方法。每个客户端也是服务端,文件被分割,从多个方位传输,利用下载者的带宽向其他用户提供带宽和数据。实际上,文件越流行,服务的越快,因为有更多用户提供带宽和完整文件的部分。

  BT(BitTorrent)就这样证明了web 2.0的关键原则:越多人使用,服务就自动变得越好。而Akamai必须增加服务器方能改善服务,每个BT使用者把自己的资源带给其他人。有一个隐含的“参与体系”把每个人的边缘连接起来,利用用户自身的力量。“参与体系”则是内在的企业道德,服务主要作为智能经纪人。

          2,利用集体智慧

  看上去,在Web 1.0时代诞生、并引领web 2.0时代潮流的巨人成功背后的重要原则就是这个,他们把互联网力量和利用集体智慧组合了在一起。

  超链接是互联网的基础。用户增加新内容、新网站,过其他用户发现网站内容和链接,这构成了网站结构的一部分。和大脑中的神经键很类似,通过复制或加强,联系变得越来越强大,链接的互联网有机成长,成为所有互联网用户集体行为的结果。

  YAHOO!,第一个互联网伟大的成功故事,诞生初期是目录或链接目录,一个数千人辛勤工作的结果,后来是百万互联网用户。随着yahoo转入创造内容类型事务,它作为网络用户集体创作门户的核心地位保持了下来。

  Google在搜索上的突破是pagerank,这使得它无可争辩成为搜索市场的领袖。这是一种利用互联网链接结构,而不仅仅是文档的特性的方法,提供了更好的搜索结果。

  eBay的产品是其所有用户的集体活动,像网络自身,ebay响应用户活动,有机发展了起来。公司的地位在于使得用户的活动可能发生。更重要的是,ebay竞争优势基本来自于其买家和卖家,这使得任何新入门的提供类似服务的网站缺乏关注。

  Amazon和竞争对手Barnesandnoble.com出售相同产品,他们收到相同的产品介绍,封面图,卖主的编辑内容。但是Amazon指定了一套科学的用户参与方案。他们按照用户浏览页面的次数,在每个页面上发出不同方式从参与邀请。更重要的,他们利用用户活动来创造更好的搜索结果。Barnesandnoble.com搜索只是指向公司自己的产品或赞助商产品。Amazon总是以“最流行”、不仅基于销售,而是其他因素的实时计算,AMAZON内部称之为产品周围的“流动flow”。有了按照用户参与次数的订单,因此它超越竞争者也不奇怪了。

  现在,熟悉这种洞察力的创新公司可能延伸的更远,正在互联网上写下自己的标志。

  维基百科,任何人均可编辑的在线百科全书。基于信任的试验,适用了Eric Raymond的格言,“有了足够的眼球,所有的bug都很肤浅”。维基百科早已是100强网站,很多人认为它不久进入前十。这是动态内容创作方面的深刻改变。

  del.icio.us 和 Flickr之类的网站,这两家公司最近收到广泛关注,是folksonomy概念的先驱,一种任何人均可自由选择关键词(标签)的分众分类。Tag考虑到大脑自身使用的多重选择和重叠的联系,而不是硬梆梆的分类。在规范的例子中,一幅flickr小狗的图片可能被标签为“小狗”(puppy)和可爱“cute”,考虑到了沿自然轴的检索产生了用户的活动。

  协作垃圾邮件过滤产品,例如Cloudmark聚合了email用户认为哪个是、哪个不是垃圾邮件的决定,胜过依靠自身分析邮件内容的系统。

  最伟大的因特网成功故事就是从来不打自己产品的广告。他们的采用病毒营销(viral marketing),这就是说,从一个用户直接到另外一个用户的推荐宣传。你甚至可以推断出,如果一个网站或产品依靠广告才让人知道,那它就不是web 2.0、

  即使许多互联网的基础设施――包括linux、 apache 、MySQL、 Perl, PHP, 或Python等涉及大多数网络服务器――依靠开源的个人生产(peer-production)方式,但他们自身是集体、net-enabled智慧的例子。SourceForge.net有超过10万个开源软件项目。任何人都可以增加项目,任何人也可以下载和使用代码。作为用户行为的结果,新项目从边缘迁移到中央,一个有机的软件采用过程几乎完全依靠病毒营销。

         什么是web 2.0 (3)

  Blogging与大众智慧

  Web 2.0时代被高度吹捧的一个特点是blogging的兴起。个人主页在互联网初期就开始活跃,个人日记和每日评论专栏比这个时间还要长,那么这一切有什么值得大惊小怪的呢?

  最基本的,blog只是日记形式的个人主页。但是正如Rich Skrenta指出的,blog按时间顺序的组织形式“看上去好像是微不足道的差异,但它推动了一个完全不同的传输、广告和价值链。

  造成这些区别的其中之一就是被称为RSS的技术。RSS是自早期黑客认识到CGI可以被用来创造数据库支持的网站以来,互联网基础体系中最有意义的进步。RSS允许人们不仅是链接到一个页面,而是订阅它,当每次有页面更改时,都会有通知。Rich Skrenta称之为“增加的(incremental)互联网”,其他人则称之为live web(活的互联网)。

  当然,现在“动态网站”(也就是数据库支持的网站,有动态产生的内容)在过去10年里代替了静态网页。Live web所说的动态不仅仅是页面,而是链接。指向一个weblog的链接可能指向一个不停在变化的页面,每一篇单独的条目则有一个永久链接(permalinks),每个更改都有通知。就这样,RSS feed是比书签或单独页面链接要强大的多的链接。

  RSS也意味着浏览器不再是浏览网页的唯一工具。一些RSS聚合器,例如bloglines是基于网络的,其他是桌面客户端,还有一些则允许用户通过便携式设备订阅不断更新的内容。

  RSS现在不仅被用来发布blog新条目通知,也被用做各种数据更新,包括股票报价、天气数据和相片的有效性。这种应用实际上是RSS本源的一种回归:RSS诞生于1997年,来自Dave Winer提出的Really Simple Syndication技术,一般用来推送blog更新。网景公司的”Rich Site Summary则允许用户用不断更新的数据流创建自定义的Netscape主页。

  Netscape后来失去兴趣,这种技术由blog先驱Winer 的公司Userland继续发展。在目前的应用程序中,我们看到,尽管这是父母双方的遗产。

  但是,RSS只是blog区别于普通网页的特点之一。Tom Coates有关于permalink意义的陈述。看起来,它不过是微不足道的功能,但却是使得blog从一个易于出版现象转变为重叠群落的对话混乱(a conversational mess of overlapping communities)。它使得直接表示他人网站上非常明确的帖子第一次变得相对地容易,以及讨论。讨论形成、聊天形成了。结果,友谊形成或变得更加确立。Permalink是第一次,也是最成功的在blog之间搭建桥梁的尝试。

  在许多方面,RSS和permalink的联合给NNTP增加了许多特性,在HTTP网络协议上。Blog圈可以被理解为早期互联网某些事物新的、对等的等价物,例如Usenet、BBS和会话水坑(conversational watering holes)等。人们不仅可以订阅彼此的网站、轻易在一个页面链接个人评论,同时通过trackbacks机制,当其他人链接到此页面时,他们可以看到并进行回应,不管是通过相互链接还是增加评论。

  有趣的是,双向链接是早期超文本系统的目标,例如Xanadu。超文本纯化论者(purists)庆祝trackback,认为这是通往双向链接的一步。但是注意,trackback不是完全的双向,他们实际上(潜在的)是对称的单向链接,创造了双向链接的效果。这其中的区别看起来似乎很小,但在实践中却很大。社会性网络系统――例如Friendster, Orkut和 LinkedIn,他们要求得到接受者的承认以建立链接――他们和互联网都缺乏相同的规模可伸缩性。正如flickr合创者Caterina Fake指出的,注意力只是巧合的相互作用。(flickr就这样允许用户设立监视表――任何用户都可以通过RSS订阅其他用户的照片。注意力的目的是得到通知,但不必链接)

  如果web 2.0的核心之一是利用集体智慧、将互联网变成某种意义上的全球大脑,那么blog圈就是前脑中不断呓语的等价物,我们在大脑中听到的声音。它可能不反映大脑深层次经常的无意识的结构,但却是有意识思想的等价物。作为有意识思想和注意力的反映,blog圈开始拥有强大的影响。

  首先,因为搜索引擎利用链接结构,以帮助预测有用的页面。和大多数多产、及时的linker相似,blogger在修正搜索引擎结果方面有不对称的角色。第二,因为blog社区太过依赖参考自己,blogger关注夸大可见度和能力的其他人。批评家谴责的回响室(echo chamber)也是一个放大器(amplifier )。

  如果这仅仅是放大器,Blog将变得无趣。但就像维基百科,blog也利用集体智慧作为某种过滤器。James Suriowecki 所说的“大众智慧”开始产生效果了。PageRank产生的结果比其他任何个人文档分析都要好,blog圈的集体关注决定价值取向。

  主流媒体可能认为个人blog是竞争者,其实真正让他们失去勇气的是:他们的竞争对手是整个blog圈。这不仅仅是网站之间的竞争,而是商业模式之间的竞争。Web 2.0世界也是Dan Gillmor /所称的“自媒体(we, the media)”。在这里,此前的听众决定什么才是重要的,而不是后台的少数人。

  数据是下一个Intel Inside ,每一个重要的互联网应用程序,到目前为止,都由专门的数据库支持。Google的网络爬虫,Yahoo!的目录(和网络爬虫).Amazon的产品数据库,eBay的产品和商家数据库,MapQuest的地图数据库,Napster的歌曲库。正如Hal Varian去年在一次个人谈话中谈及的,sql是新的html。数据库管理是web 2.0公司的核心能力,到这样的程度以至我们有时候用”infoware提到这些公司,而不是software(软件)。

         这个事实引发了一个关键问题:谁拥有数据?

  在互联网时代,人们可以发现许多例子,控制数据库从而控制市场并获得巨额利润。Network Solutions公司(后来卖给Verisign),最初由政府批准他们在域名注册上的垄断,成为互联网最早挣大钱的公司之一。我们已经讨论通过控制软件API的商业优势,这在因特网时代更加重要,控制数据源则不是,尤其是如果那些数据源创造起来非常昂贵或有责任通过网络影响增加回报。

  看看MapQuest, maps.yahoo.com, maps.msn.com,或者maps.google.com,等地图网站每张地图底部的版权通知,你会看到这么一行:“地图版权归NavTeq, TeleAtlas”或者是新的卫星图片服务商,“图片版权归Digital Globe”。这些公司在数据库商进行了大量投资(据报道,仅NavTeq公司就投资7500万美元建立简历街道地址和方向数据库。Digital Globe花费了5亿美元发射自己的卫星,以改进政府提供的卫星图片。)NavTeq甚至于模仿英特尔的intel inside 的logo:装有导航系统的汽车,留下”NavTeq Onboard的烙印。数据的确是这些应用程序的Intel Inside,是那些软件基本来自开源代码或经过改良的系统的唯一来源。

  目前地图市场激烈的竞争证明,失败者如何理解拥有应用程序核心数据重要性程度,最终减低其竞争地位。MapQuest从1995年开始地图服务,是此行业的先驱。而当yahoo和微软google决定进入此行业时,他们只需要获得相同数据的许可,就可以提供具有竞争性的服务。

  但是,与此相反的是amazon的地位。和Barnesandnoble.com等竞争者类似,它最初的数据库来自ISBN注册提供商R.R. Bowker。但与MapQuest不同的是,amazon增加了数据,增加了诸如封面图片、目录、索引和样品材料等出版商提供的数据。更重要的,他们利用用户注释这些数据。10年后,amazon,而不是Bowker ,成为书籍目录资料的主要来源,也是许多读者、学者和图书管理员的参考资源。Amazon還引入了他们自己与ISBN相对应的产权标志-ASIN。Amazon就这样有效地包含和扩展了他们的数据提供商。

  设想一下,如果mapquest做了同样的事情,让用户注解地图和方向,增加价值。只通过颁发基础数据许可,就会让竞争者进入这一市场更加困难。

  Google maps为应用程序卖家和数据提供商进行竞争提供了一个鲜活的实验室。Google的计划模式导致许多增值服务的产生,以组合形式出现,用其他可接入因特网的数据源链接google地图。Paul Rademacher的housingmaps.com,就把google地图和Craigslist公寓出租、家庭购买数据联合了起来,创造了一个互动的住宅搜索工具,这是类似mashup(译注:似乎可解释为组合)的优秀例证。

  目前,这些mashup大多数是创新的试验,由黑客们完成。但是,企业家的活动紧跟其后。人们发现,google至少已经为一个种类的开发者占据了数据源的地位,并把他们自身作为受欢迎的中介插入。随着数据提供商和应用程序卖主都认识到,某些种类的数据将变成web 2.0应用程序的基础,我们将在接下来几年内看到他们发生战斗。

  竞赛在我们自己某些类型的核心数据:位置、身份、公共事物日历,产品标志符和自己的命名空间。很多花费巨资创造数据的案例中,可能有机会使得Intel Inside模式运转,在数据只有一个来源的情况下。在其他方面,第一家通过用户聚合、到达临界容量的公司将是获胜者,并将聚合的数据转为系统服务。

  例如,在身份领域,PayPal, Amazon’的1-click以及其他数百万用户的交流系统,都将是建立网络范围身份数据库合法的竞争者。(在这点上,Google最近尝试用手机号码作为Gmail身份标志符可能是其踏入电话系统的一步。)同时,Sxip等公司正在探索联邦身份的潜在可能,试图找到某种可以提供无缝的web 2.0身份子系统的分布式1-click。在日历领域,EVDB通过wiki式的参与机构,尝试建立世界最大的共享日历。

  在关于数据方面,必须指出另外一点,这就是用户关心的隐私和数据权利问题。在很多早期网络应用程序中,版权很宽松。例如,Amazon认为(但没有强迫),任何提交给站点的评论,人们可以在其他地方再次张贴相同的内容。然而,随着公司开始认识到控制数据可能是他们竞争优势的主要来源时,尝试控制将有所增加。

  和专有软件(proprietary software)的增加导致自由软件运动类似,我们希望专有数据库也能在接下来10年内引发一场自由数据运动。我们已经可以在诸如维基百科、Creative Commons等开源数据项目以及Greasemonkey等软件项目中,发现了这一趋势的早期征兆。

            什么是web 2.0 (完结篇)

  软件发行周期的终结

  正如在上面关于google和netscape的讨论中所指出的,互联网时代定义特性之一就是,它是以服务方式传递,而不是产品。这导致这样一个公司在商业模式方面,出现很多根本性的改变。

  运转(Operations)必须成为核心竞争能力。Google或yahoo的产品开发专家必须配有一个每日运转专家。因此,基本原则就是把软件从一种产品转为服务,除非每天都要维护,否则软件不会停止执行任务。Google必须不停的搜索网络、更新其索引,不断过滤垃圾链接以及影响其结果的其他尝试,不断和动态的对数百万人异步查询进行反映,同时给他们匹配的文本广告。

  Google的系统管理、网络和负载平衡技术可能比搜索运算法更加机密,这也就不是偶然了。Google在这些程序自动化方面的成功是面对其他竞争者的优势所在。

  诸如Perl, Python, PHP和现在的 Ruby等脚本语言在web2、0公司扮演巨大角色也不是偶然。Sun公司第一个网络管理员Hassan Schroeder Perl描述为“因特网的输送带(the duct tape of the internet)”。动态语言(经常称作脚本语言,被软件工件(software artifact)时代的软件工程师藐视)是系统和网络管理员的、也是建立需要不停变化的动态系统的应用程序开发者上乘工具。

  用户必须被视作共同开发者,在开放源码发展实践的反思中(即使软件不大可能在开源协议下发行)。开源格言:“早发行,常发行”,这实际上已经变成更加激进的“永远beta版”,产品开放式发展,每个月、每周甚至每天都有新特性产生。因此,Gmail、google maps、Flickr、del.icio.us以及其他类似产品可能好几年都带有beta的标志,也就不是意外了。

  实时监视用户行为,只是发现使用了哪些新特性,怎么使用,从而成为另外一个必须的核心能力。一个大型在线服务网络开发人员这么评论到:“我们每天在网站的某些部分增加2到3个新特性,如果用户不接受,那么我们就取消。如果他们喜欢,我们将扩大到整个网站。”

  Flickr开发人员Cal Henderson最近披露,他们每半个小时就配置一些新的特性。这明显是一个完全不同的发展模式!并非所有网络程序都像flickr这样的极端,大多数网站程序有一个与PC或客户服务器时代完全不同的发展周期。因为这个原因,最近的ZDnet社论总结出,微软不会击败google:微软的商业模式是依靠人们每2年或3年更新其计算环境,而google则依靠人们每天在计算环境中发现新东西。

  微软善于学习其竞争对手,但这次就没有这样的问题了,竞争将要求微软(以此延伸到现在其他的软件公司)变成一个完全不同的公司。诞生之初就是web 2.0的公司有其先天优势,他们没有旧模式(以及相应的商业模式和收入来源)的束缚。

  轻量级规划模式

  一旦网络服务的思想变得为人熟知,有着复杂网络服务、为分布式程序创造高度可信赖规划环境的大公司将进入竞争。

  但是,和网络抛弃其大部分超文本理论而成功相似,用简单的实用主义取代理想主义设计,RSS因为其简单性,可能是最为普遍的网络服务。而复杂的合作网络服务还没有得到广泛配置。

  与此相似,Amazon用两种方式提供网络服务:一个附着于SOAP形式网络服务堆栈,另外一个只通过HTTP提供XML数据,在轻量级方式中有时候被称为REST. 高端的B2B链接都使用SOAP堆栈,而95%都使用轻量级的REST服务。

  在其他“有机的”网络服务中,也有相同的问题。Google最近的地图服务就是恰当的例子。Google 地图简单的AJAX界面迅速被黑客所解释明白,然后他们混合这些数据,形成新的服务。

  与地图相关的网络服务出现有一段时间了,从诸如ESRI 、MapQuest以及微软MapPoint 等地理信息系统卖家出现。但是google地图由于其简单性,在全世界燃起了一场大火。体验任何正规卖家支持的网络服务都需要双方正规的合同,google地图贯彻的途径是让数据为人们所利用,黑客不久就发现方法重新使用这些数据。

  这里有几个很有意义的训诫:

  支持允许松散连接系统的轻量级程序模式。企业赞助的网络服务堆栈的复杂性,就是为了使紧密的链接变得可能。在很多情况下这是必要的,但大多数有趣的应用程序实际上可以保持松散、甚至脆弱的连接。Web 2.0的精神与传统的IT精神大相径庭!想象一下聚合,而不是调和。例如RSS和基于REST的网络服务等简单的网络服务,当它到达连接的另外一端时,是关于向外的聚合数据,而不是控制发生了什么。这种思想是互联网本身的基本原理,是端到端(end-to-end)的反映。

         为hackability和remixability设计

  诸如原始网络、RSS 、AJAX等系统都有一些共同点:重新使用的门槛极其低。很多有用的软件实际上是开放源代码的,即使它不是,在知识产权保护方面障碍也不多。网页浏览器的“查看代码”使得任何用户都有可能复制他人的网页,RSS是被设计用来使得用户可能观看他/她想要的内容,当需要时,不是由于信息提供商的命令;最成功的网络服务是那些最容易吸收新的方向,甚至是创造者自己也没想到的。与更加典型的“版权所有”相比,通过“创作共用”流行起来的“保留部分版权”就是有用的路牌,集体创新轻量级商业模式是轻量级程序和链接的自然衍生物。Web 2.0的精神是易于重新使用。

  例如ousingmaps.com这样的新服务就是通过简单组合两个已经存在的服务。Housingmaps.com还没有商业模式,但是对很多小型公司来说,google adsense(也可能是Amazon的associates fees,或者是两者)提供了同等的利润模式。

  这些例子给另外一个web 2.0原则提供了洞察力,我们称之为 集体创新。当必需成分很丰富时,你可以很简单的以新奇或有效的方法将他们组合在一起,创造新的价值。和PC革命为组装必需硬件提供了很多创新机会类似,像DELL这样的公司就从这样的组装中产生了学问,从而击败那些商业模式需要产品发展创新的公司。我们相信web 2.0将给很多公司提供机会,在利用和整合其他人提供的服务方面做的更好,击败竞争对手。

  超越单一设备的软件

  Web 2.0另外一个应该引起关注的特性是,它不再局限于PC平台。微软资深开发者Dave Stutz在给微软的离别建议中指出,“在单一设备之上编写的有用软件,将在未来很长时间内,掌握高利润。Useful software written above the level of the single device will command

  high margins for a long time to come.”

  当然,任何网络应用程序都可以被视作超越单个设备的软件。毕竟,即使最简单的网络程序也涉及到了两台电脑:主机服务器和用来浏览的电脑。正如我们讨论过的,作为平台的网络的发展将这种思想延伸到了由多台电脑组成的服务合成程序。

  但是,由于在很多web 2.0领域里,2.0-ness并非新东西,而是网络平台真实潜力的实现,这个短语在观察如何为新平台设计应用程序和服务方面,给了我们关键的洞察力。

  到目前为止,iTunes是这个原则最好的例证。iTunes无缝地从手持设备到达后端的网络,PC扮演本地CACHE和控制台的角色。此前有很多将网络内容带到便携式设备上的尝试,但是iPod/iTunes组合是完全跨越多设备的应用程序之一。TiVo是另外一个很好的例子。

  iTunes 和 TiVo也证明了其他很多web 2.0的核心原则。他们本质上不是网络应用程序,但是他们利用了网络平台的力量,使之无缝、并几乎它们基础构造的一部分。数据管理明显是它们的心脏。他们是服务,而不是应用程序包(尽管在Itunes的情况下,它可以被用作打包程序,只管理用户的本地数据)。

  要的是,TiVo 和 iTunes都显示出了利用集体智慧的萌芽,尽管在各自的例子中,他们的试验还在与IP通道(IP lobby)进行战争。iTunes只有一个受限制的参与构建,尽管最近podcsting的加入充分改变了这种因素。

  这就是web 2.0其中的一个领域,随着越来越多的设备被连接到新平台,我们将看到一些伟大的变革。当我们的电话和汽车不是消费数据而是报告数据时,还将出现什么样的应用程序?实时的交通情况监视、快闪暴走族(flash mobs)、公民媒体,这些只是新平台能力的少数几个早期信号而已。