大话SEO网站优化|SEO优化入门技术详解

  网络营销

  网络营销是借助一切被目标用户认可的网络应用服务平台开展的引导用户关注的行为或活动,目的是促进产品在线销售及扩大品牌影响力。

  web1.0时代有搜索引擎营销、BBS营销、邮件营销、病毒式营销、即时通讯营销等

  web2.0时代除了有以上的,随着网络应用的不断加强,有了博客营销、RSS营销、SN营销、创业广告营销、口碑营销、体验营销、趣味营销、知识营销、整合营销、事件营销、博客营销等

  搜索引擎营销可分两种:SEO和PPC

所谓的SEO指的是,搜索引擎优化,是指通过对网站结构(包括网站内部链接结构、网站物理性结构和网站逻辑性结构入手)、高质量的内容以及丰富而且相关性强的外部链接而进行的优化,从而使得网站对用户和SE十分的友好,从而使得网站在访客的搜索结果页上排名靠前而为网站带来流量。

(狭义的SEO:指的是通过一些网页制作和运行过程中提炼总结的出来的一些符合搜索引擎排序的经验,这些一定程度上能够提高网站的访问量和用户的感官欣赏、实用体验性,例如现在几乎没有在首页堆砌大量的FLASH和图片等元素。还有的是一些大型网站的技术优化大牛通过自己沉默的研究有了一定的可靠能用行之后在网络上进行传经论道出来的文档或者视频,但是,这类的SEO优化技术是被动的被接受和应用的,学习者并没有真正的理解该技术或者方法所产生的原因,所以,应用者缺乏一定的变通性和随即性。)

(广义的SEO:是指通过深入研究搜索引擎的排名规律,努力的挖掘一些能够利于自己网站排名的技巧,然后再进而进行推广,繁衍出更多的至少对自己实用性的技巧,从而提升和稳固自己网站排名的方式方法。)

当然,最前沿的最新式的推广排名方法,是不会被立刻的释放普及出来的,大家都懂得。搜索引擎的所搜集所得是其最初的衷心。不管再新式的或者有效的SEO优化技巧都不能被普及开来,被K站或者百度本身调整算法是肯定的事情。

  PPC就不说了,就是搜索结果页所呈现出来的顶部以及右半部的广告。

  病毒性营销:并不是利用病毒和流氓插件进行的推广宣传,而是通过一种非常合理有效的积分制度引导和刺激用户主动的进行宣传,是建立子啊有益于用户的基础上进行的营销。例如:信用卡消费积分免年费。

  RSS营销是一种比较不成熟的营销方式。使用这种方式的人群以互联网内部较多,主要是通过订阅日志和资讯为主,而能够让访客订阅日志的可能性几乎为零。

  SNS营销:social network service即社会化网络服务。是基于圈子、人脉、六度空间而产生的进行自我扩充的营销策略。一般采用成员推荐机制,这样就为精准营销提供了可能,并且实际的转化率肯定非常的乐观。

  知识性营销:例如百度“知道”,就是通过和用户之间的提问和解答的方式来提高用户粘度性。有句话说的好,如果你想和一个人做朋友,就要一直帮助他。所以,每个企业应该都要建立这样一个知识性的平台,来维护和挖掘自己企业的客户资源。

  事件营销:通俗的将,就是炒作。炒作最新的、最具爆炸性新闻。如果能根据该事件写出一篇深度报道会更好,会使更多人注意到你的blog。

口碑营销:对一个企业的发展,肯定是非常非常重要的。

  软文营销:

  和硬性广告相比,软文营销就是一种润雨细无声的感觉。是有公司市场部的企划人员和广告公司的文案人员来进行撰写的“文字广告”。

  软文之所以叫做软文,精妙之处就在于一个“软”字,好似绵里藏针,收而不露,克敌于无形,等到你发现这是一篇软文的时候,你已经冷不盯的掉入了被精心设计过的“软文广告”陷阱。

  企业通过软文可以把自己的一些需要宣传或广告的事件主动暴露给报纸、杂志等印刷媒体,以达到做广告的效果和提高企业知名度和美誉度的目的。

  博客营销:

  想要博客营销的首要条件就是写作。目的有三:

  1,公关写作,通过文字加强和客户之间的认知和信任度。

  2,记事写作,通过文字加强和客户之间的情感交流。

  3,配合优化人员进行的营销推广作用。

  博客营销最重要的就是内容的可读性。离开了这个核心,那么文章也就没有了营销所需求的了。

  如何把握BLOG营销写作的核心?

  很简单,那就是立足于本行业。一个人想要在本行业中发展,肯定要比其他所有人都要关注行业动态,并且有自己的观点和态度,这些内容可以在企业BLOG上体现出来,这也是对行业的一种积极负责的态度。

  基于以上观点,BLOG营销的写作内容可围绕以下方向展开:

  1:行业新闻,可有原创和转载

  2:行业评论,执笔人应为企业管理层人员

  3:企业新闻,发布企业的最新官方信息

  4:客户关系

  5:行业技术交流探讨

  6:员工工作随笔

网站对SE友好:

  建设一个具有营销导向的网站才是网络营销取得成效的基础,网站对搜索引擎的友好只是其中的部分需要。因此,最好是在网站策划和设计阶段就将网络营销思想结合进来,这样不仅要比网站发布之后效果不佳再回过头来考虑这个问题会节省时间和金钱,同时也在很大程度上增加了网络营销人员的信心。

  网站和SE之间友好肯定是相互的。

  网站设计对SE友好,然后塔索反馈的结果是能够吸引更多的用户进行点击浏览,网站获得大量的流量,取得好的营销效果。

  对SE友好,其实也是对访客友好,用户可以在网站上很轻松的发现到自己所需的内容信息,另外,还能够非常方便的进行拷贝、转存和转发对自己有价值的内容,可以方便的检索浏览到自己期望的产品信息,从而注册并且购买。

  网站和SE之间的不友好的表现在:

  1,网站首页采用大量的FLASH,甚至,这个首页是FLASH制作。

  1,网站导航混乱,SE看不懂,容易迷路

  2,网页正文关键词较少,没有紧扣住

  3,网页没有标题

  4,内容采用大量的图片而没有alt标签,也就是没有可以检索的文本内容

  5,部分数据信息对SE保密,即只能通过登录才能看到

  6,没有其他网站提供相关链接线索进行比较

  SE工作原理简介:

  1,爬行、抓取

  2,预处理

3,排名

笼统解释:

  1,爬行和抓取:SE蜘蛛通过跟踪链接访问页面,获得页面的HTML代码存入数据库。

  2,预处理:索引程序对抓取的页面数据进行文字提取、中文分词、索引等处理,已预备排名程序调用。

3,排名:用户输入关键词后,排名程序调用索引库数据,计算相关性,然后按一定格式生成搜索结果页面。

详细解释:

爬虫

SE蜘蛛肯定是不能完全抓取互联网每天上百亿的页面的,所以,SEOer就要想办法进行引导,吸引蜘蛛前来抓取。当然,该并发运行的爬虫程序当然知道自己喜欢什么样子的网页。如下几种:

  A,网站和页面权重。质量高、资格老的网站被认为权重高。这种网站被抓取的深度也比较的深。

  B,页面新度。蜘蛛每次爬行完后,都会把页面数据存储起来,如果第二次爬行发现页面数据没有更新,完全跟第一次收录的一样,说明页面没有更新,蜘蛛也就没有必要经常抓取。如果页面经常更新,蜘蛛就会更加频繁的抓取这些页面,页面上出现的新链接,自然也会被蜘蛛更快的跟踪、抓取到。

  C,导入链接。无论是站外还是站内,要被蜘蛛抓取,就必须给其导入链接的进入口,否则蜘蛛根本就没机会知道页面的存在。高质量的导入链接能够增加蜘蛛的爬行深度。

D,与首页的距离。一般来说,每个网站的首页的权重是最高的,离首页最近的网页的权重也是比较高的,因此,近的网页也是很容易被抓取的。

  地址库(分为待访问和已访问):

  为了避免重复抓取,搜索引擎一般会设立一个地址库,里面存放已经发现但是还没去抓取的URL和已经被抓取的URL

  这些URL的来源:

  1,人工录入原始种子URL

  2,爬虫下载的HTML中的URL

3,站长提交的(基本没用,爬虫有自己的方式去抓取URL)

  预处理

  1,提取文字。

  SE现在还是以文字内容为基础,蜘蛛抓取的网页内的HTML代码中就必须清除Javascrip html格式标签等无法用于排名的内容,用剩余的文字部分来进行排名统计。

  除了网页代码中可见的文字部分,搜索引擎也会提取出一些隐含的文字信息代码,例如图片替换文字、Meta标签中的文字、Flash文件的替换文字、链接锚文本等等。

  2,中文分词功能

  分词是中文搜索中特有的步骤。SE存储和处理页面以及用户搜索都是以词语为基础的。

  中文分词基本方法有两种:基于词典匹配 和 基于统计

  基于词典匹配的方法是:讲一段待分析的汉字与已有的词典中的词条进行分析匹配,在待分析的汉字中扫描到词典中已有的词条则匹配成功,或者说切除一个单词。

  词典匹配的方法很简单,其准确度很大程度上取决于词典的完整性和更新情况。

  基于统计的分词方法是分析大量的文字样本,计算出字与字相邻出现的统计概率,几个字相邻出现越多,就越可能形成一个词。这种方法的优势是对新出现的词反应更快,也有利于消除歧义的发生。

  SE的分词功能取决于词库的规模、准确性和分词算法的好坏,而不取决于页面本身如何,所以,对这一部分seo人员并没有太多的优化部分,唯一能做的就是在页面上以某种形式提示搜索引擎,某几个字应当被作为一个词语处理,尤其是可能产生歧义的地方。例如我们经常用的黑体表示某几个字,这样,不仅有利于用户的阅读方便,提高显示效果也有利于告诉SE,这几个字,你要把他们当做一个词语看待,这样就更加有益于排名优化。

  相关性计算---排名

  这是排名过程中最重要的一步。也是最令SEO人员感兴趣的地方。

  (1)关键词常用程度。经过分词之后的多个关键词,对整个搜索字符的贡献是不同的,越常用的单词对其的贡献越小,越不常用的词语贡献越大。

  所以,搜索引擎对搜索词串中的关键字并不是一视同仁的处理,而是根据常用程度进行加权。不常用的词语加权系数高,常用的词语加权系数低。

  假设A和B两个网页都出现了“我是冥王星”,但是A页面的“我是”是普通文字,而“冥王星”是标题文字,但是B页面刚好相反,那么,当用户在搜索“我是冥王星”的时候,A页面最相关。

  (2)词频和密度。在没有关键词堆积的情况下,搜索词在页面中出现的频率越高,说明页面与搜索词越相关。

  (3)关键词位置和形式。页面关键词的出现格式和位置都会被记录到索引库中,关键词出现在比较重要的位置上,如标签、黑体、H1等,说明页面越相关。

  (4)关键词距离。切分后的关键词完整匹配的出现,说明与搜索词最相关。比如搜索“南京华肤医院”时候,页面上连续完整的出现“南京华肤医院”六个字是最相关的。比单独出现“南京”“华肤”“医院”的相关性都要高、

  (5)链接分析和页面权重:页面有越多以搜索词为锚文本的导入链接,说明页面的相关性越强。

  5,排名过滤。有些网页在之前的一步一步中被计算的很好,本该有很好的排名,但是,这一步是百度的惩罚机制,一些有作弊嫌疑的网页可能会在这一步被惩罚直接被调到后面的排名。

  6,排名显示。

  所有的排名确定以后,排名程序调用原始页面的标题标签、说明标签、快照日期等数据显示在页面上,有时候搜索引擎会动态的生成页面摘要,而不是直接调用说明标签。

  7,搜索缓存。

  按照2/8定律:20%的搜索词占搜索总数的80%。如果每次搜索都要重新排名,可以说是很大的浪费,搜索引擎会把最常用的搜索词存入缓存,用户搜索时候直接调用即可。

  利用SE进行广告的4个阶段:

  (1)收录

  (2)排名靠前

  (3)点击率

(4)转化率

  SEOer工作的周期安排

  1,建站

  A为每个网页设定标题title,尽量简单,不同网页的标题应该不同而且紧扣页面内容。

  Bkeywords的设定。密度要把握好,不能在堆积很重要。

  C页面设计要使用语义化标签代码。例如strong、hx、p等标签的使用。

  D网页减肥。严格的控制网页的大小,例如对baidu来说,125KB是极限,google来说,300KB,能够提高页面加载速度和爬虫的下载速度。

  2,购买域名、空间、解析、提交。以求快速收录。

  3,外链建设

  A对于新网站来说,建设友情链接非常困难,尤其是还没有被收录之前,更加困难。

  所以,作为seo工作者要广开人脉,注意平时的积累。不过依然可以向其他同类网站提交,虽然成功率只有10%左右。

  B定期阅读服务器日志非常重要,观察爬虫程序的爬行习惯,记录爬行过的重要网页,统计爬行网页频率。

  C如果网站被收录,下面的工作就是主要做定期的收录量的比对,然后分析哪些页面被收录以及没有被收录页面的原因。

  4,对已有的外链和潜在未建立外链的网站评估

  如果友链被K和降权,那么就要立刻去掉给友链,以防止SE的“连坐惩罚”。同时,要不断的寻找与你的网站主题相关性高的网站,主动与他们建立链接。

  5,定时、定量、定频率的更新你的文章

  做好自身网站内容质量。经常更新或者添加新的网页,并且鼓励原创的全新文章。

  6,分析流量以及IIS日志

  通过第三方例如CNZZ和51la来分析访问我网站的访客流量。同时分析那些关键词排名没有到位,或者是出现排名下滑。当然还要分析对手网站的主要关键词排名,分析、模仿、学习、实践、总结、提升的来弥补我网站的不足。

  7,计算回报率(即付出和金钱回报)

  通过SE提供的PPC点击广告推广这里就不做介绍,因为目前本人还没有资金。所以,这里的回报率主要是时间和赚取利益的比对。

什么是SEO优化?其他一些推广方式?

  你的网站想要获取流量、想要盈利,就必须排在搜索引擎结果页的前面,让用户看的到才可以。如何才能够更大程度的出现在搜索引擎的排名靠前甚至首页呢?

  最终的目的是希望通过自然排名能为网站带来流量,没有流量的排名是没有意义的,有了排名、有了流量这样就可能会给站长们带来利益。

SEO的最终目的是完成转化,提高IP转化率才是王道。

  SEO工作大体上分为两份,分为站内和站外的优化。站内优化指的是站长们所能控制的网站本身的调整,例如网站结构(好的网站导航有利于用户的体验)和页面代码(百度一直宣称:精简的网页代码是蜘蛛最为喜好爬取的)。站外优化指的是网站外链的建设(对前期网站的排名和权重的培养是最为重要的)。

网站做SEO,与其他推广方式的对比的优势和劣势?

 网站做SEO,与其他推广方式的对比:

  1,其他的一些推广方式,都是直接的把网站送到用户的面前,这些大都不是用户所希望找的网站,但是,网站做SEO的话,你的网站是用户通过SE搜索到的,而且排名在首页的好位置的话,是会有很高的点击率进而提高转化率的。

  2,SEO不是绝对的免费,例如,你可能要做高质量外链的时候,会有付费给别人的时候,但这些费用都是很少的,尤其是如果站长有了SEO技术,那么,需要付钱的地方更是少之又少。

  3,长期有效。媒体广告、PPC等一旦停止投放,流量即刻停止,但是做SEO ,只要不作弊,效果会持续的存在。

  4,可扩展性。只要掌握了关键词研究和内容扩展方法。网站可以不停地增加目标关键词和流量。

5,做SEO更加的注重用户体验。这对转化率很重要。

  一些SEO术语

  什么是baiduspider?

什么是沙盒 沙盒效应的意图是什么?

  当一个新的网站被Google列入索引之后,它通常会获得被许多观察员认为的对“新网站”的奖励。这个崭新的网站将在搜索结果列表中飞速上升至顶部,然而却是昙花一现,随后,排名就会不断下降。

  在最重要的关键字搜索排名前列的数日风光之后,这些网站就会被雪藏于Google搜索结果底部,好像根本不存在一样。即使该网站可能具有很高的Google网页级别(PR值),拥有很多强有力并且主题相关的引入链接和丰富的内容,它还是会遭遇到令人沮丧的“沙盒效应(Sandbox)”的影响。

  你需要考虑怎样才能从沙盒效应中摆脱出来。当抑制因素排除时,你在沙盒惩罚期间所做的工作可以使你的网站重新出现在搜索结果中。

  沙盒效应的意图是什么?

  很多观察者都认为,沙盒过滤器的目的是劝阻不择手段的WEB站点管理员不要使用违反Google站点管理员指南的做法。Google试图瓦解一些手法,如使用垃圾站点建立初期的流量,购买过期的域名以获得其之前存在的Google网页等级作为跳跃的起点。

  什么是Google Dance?

  Google dance是指Google搜索引擎数据库每月一次的大规模升级。

  Goolge搜索结果显示出剧烈的排名波动,同时被索引网站的外部链接也获得更新。每个季度更新一次的网页级别(Page Rank)也发生在Google dance期间。Dance一般持续几天时间,Dance结束后,Google搜索结果和网站外部链接数量趋于稳定,直至下一个周期的Google dance到来。

  黑帽SEO的观点是:

  搜索引擎的规则一直在变动,而且像baidu这种有了市场就想着赚钱而完全不顾广大贫民站长死活的商家来说,只要其有一点变动,就会由于成千上万的白帽网站被消灭,所以,写内容,做调查,做分析流量,要分析用户浏览路径,和用户交流沟通,认认真真做白帽站是吃力不讨好的行为。

而做黑帽就不同了,赚钱的方法简单说就是短平快方法。因为大部分黑帽SEO都是使用程序,他们建立一个几万几十万页的网页,不费吹灰之力,只要放他们的蜘蛛出去抓取就可以了。就算过几个月他们的网站被惩罚,他可能已经赚了几千几万美金了。对他来说,投资报酬率还是相当高的。

黑帽的一般方法:

  1,博客群发、博客群建

  近几年博客的兴起,为黑帽SEO滋生了广袤的肥土。博文群发软件等自动化工具瞬间被喜欢的宜昌火爆。

  2,留言板群发。

  一般网上有些留言本群发软件,使用这些软件可以自动发布自己的关键词URL(锚链接)。在短时间内,迅速提高外部链接。

  3,链接工厂。

  这是指一个非常庞大的“链接网络系统”。这些网页链接可能来自同一个以及不同的域,甚至来自不同的服务器。一个网站加入该系统之后,能够最短时间内得到该系统内其他所有网页的链接,当然,既然进去了,肯定也要哦贡献自己的网页链接,从而达到干预链接得分的目的。

  4,隐藏链接。

  这种情况在建站公司很常见。就是将客户的网站上面通过隐藏的方式来加上自己网站的链接,这种肯定是单向的锚链接,效果肯定比较好。

  5,假链接。

  这种在换友链的时候要注意,就是不良站长通过将链接放在JS、框架或者表单中。这三种形式的链接,爬虫根本读取不到,所以,也就没有任何效果。

  做seo的最重要的部分在哪儿?

  1,SEO与SE的关系。两者不是对立矛盾关系,虽然百度一直在暗地里打压站长们的劳动成果,但是,如果没有SEOer,到时候,通过百度呗搜索出来的就是一群垃圾内容。但是,如果没有百度,SEOer也就失去的劳动的场地。

2,内容、外链、用户体验之间的关系--->大数据时代 内容不再匮乏

内容为王、外链为帝、用户体验为皇。

三皇五帝后面才是王,所以,可以看出,一切的优化目的都是为了能够提高用户体验度的,但是这个东西说起来很抢眼,但是,真正做的时候挺玄的,看不到、摸不着,所以,一般都以外链建设为首要任务。虽然百度绿萝算法出台后,严厉的打击了很多外链建设不规整的站点,K站风波一浪接一浪,但是,如果外链建设的具有针对性,也就是传说中高质量的外链(例如百科中链接),是对权重的培养的累计有非常重要的推动作用的。

现在又有了新的观点,是互联网的内容已不再为王,因为目前处于一个大数据时代,内容肯定非常的膨胀,已然不再匮乏,所以,如果给出针对访客需要的内容,也就是说给出针对性的内容才是王道,好的内容永远有价值的时代已经过去。

例如:莫言是诺贝尔文学奖的获得者,但是,他的小说对我来说,就是垃圾,放在硬盘中都嫌浪费空间。这就是针对性。

再如对于牛皮癣广告,相比很多很多的人都非常非常的讨厌这些,但是对于真正的牛皮癣患者来说,这就是他们的福音,可能就是好的内容。

再如每部上映的电影,在豆瓣影评中都会是褒贬参半的,没有一味的好、也没有一味的差评。这就是匹配度。

所以,我认为,在一定程度上,好的内容仅仅指的是和访客匹配度高的内容。信息远远供大于求就意味着信息的极大丰裕,“一种丰裕必然带来一种稀缺”——什么稀缺?合适的内容与合适的人之间的匹配,稀缺。

3,权重和排名的关系。

百度的排名规则算法一直是SEO站长们乐于研究的对象。对于目前的超链接排名法则,对于网站外链建设的推动可谓是非常强大的。而三种链接模式中,尤其以锚文本形式对排名最为有效。

4,相关性与权重对于排名同样重要.相关性是从网页的角度出发。权重是以域名为单位。

  百度对一个网站的排名是根据链接的相关性.但是,仅仅依靠相关性,网站很容易作弊.

相关性的单位是网页(通过外链的建设,而这些外链都是存在于一个个的网页上面)。

但是如果相同的文章投到不同的网站上,当搜索这篇文章的时候,会出现关于这篇文章的不同网站的排名,这个网站的排名就是依靠网站的权重有的也叫权威性了.权重是以域名为单位的,也就是权重高的域名的网站上的文章排名会高,这也就是为什么我们找外链平台要找好平台、高权重平台的原因了。

5,不要看重某个词的排名,长尾流量才是真的流量

6,外链内容先行 细节决胜。什么是细节?nofollow H1

Nofollow是为了减少爬虫的爬行时间,从而提高其在我网站上面爬行的效率,将我不希望爬虫浪费时间爬去的链接给nofollow掉,这样他就有时间去更多的爬取我希望它经常去的链接抓取页面内容。

H1标签是为了给搜索引擎注意这被h1标签包括的内容,是这里的主导内容,这个页面他就是老大。

  7,效果监控与数据分析非常重要

  学会从CNZZ中总结.日志分析 外链查询 流量统计等

  8,SE的算法是一直在变的,所以没有长久的SEO方法

  但是只要网站的用户体验,那么你就能领先于搜索引擎,先行变动

9,淡定是SEOer工作者最好的态度

SEO误区

   一关键字堆砌

  该做法是指在网页中加入大量的关键词的做法,来操纵网站在搜索页显示的排名结果哦。

  这种做法对用户体验度产生非常差的影响,所以,极大的损害了网站的排名以及对互联网垃圾产生贡献。

  例如:在图片的标签注释中加入“机票、机票、机票、机票、机票、机票、机票”。

  需要站长们集中精力要做的事提供丰富有用的内容,上下文中顺其自然的加入关键词,其曝光度掌握合适即可。

   二隐藏文字和隐藏链接

  网页上面隐藏文字和链接被指是最常用的作弊手段。

  隐藏的文字和链接导致网站不被信任,因为它向搜索引擎和访问者提供的信息不一样。

  隐藏的手段方式:

  A在白色背景上显示白色文字

  B将文字置于图片后

  C使用 CSS 隐藏文字

  D将字体大小设置为 0

  隐藏链接主要是让爬虫程序可抓取但人眼无法识别

  A链接由隐藏文字组成(例如,文字颜色与背景颜色相同)。

  BCSS 用来制作只有一个像素高的小链接。

  C链接隐藏在某个小字符中。

  三伪装网页

  伪装网页指通过技术来判断网站访客是爬虫还是正常访客,然后提供给他们不同的网页内容。

  对正常浏览者提供一套适合浏览体验的页面,对爬虫程序提供适合搜索引擎下载分析的页面。

  通过对ip的判断,使网站完全呈现出2种不同的页面结构,来欺骗搜索引擎获得靠前的网站排名。

  四过渡页

  通过软件大批量的生产包含不同关键词的网页,然后将这些网页自动转向首页。

  目的是通过这些排名好的网页(被称为桥页或过渡页),在搜索页上有好的排名,然后在访客点击的时候,自动转向首页。可能有的时候桥页不自动转向,而是网页上有通过首页的链接。

大部分情况下,这些桥页都是由软件生成的。你可以想象,生成的文字是杂乱无章,没有什么逻辑的。如果是由人写出来的真正包含关键词的文章,就不是桥页了。

以下就是通过间隔0秒的refresh而实现的桥页代码:

<html>
  <head>
  <meta name="description" content="商品001">
  <meta name="keywords" content="商品001">
  <title>商品001</title>
  <meta http-equiv="refresh" content="0;
  url=http://www.sohu.com">
  </head>
  <body>
  </body>
</html>

这个页面打开后会在0秒(由content="0定义时间)内转向到http://www.sohu.com(由url=http://www.sohu.com">定义转向的站点),所以只要稍加修改,就可以变成新的桥页。

  对于桥页的建立,关键是还是关键字要选择好,就拿上面那个网站的例子来说,我们要依次为每一个关键字都要做一个单独的桥页,关键字要尽量的全。再有,一个关键字我们也完全可以做多个内容完全相同但名字一定要不相同的桥页,分别提交给搜索引擎来增加被搜索到的机率。

  五重复提交

  建站初期这种情况非常常见,网站建设完全后,上传到空间,可能这个时候每个SEOer都急于看到自己的心血有回报,表现就是很快被各大搜索引擎收录,所以就反复的向搜索引擎网站登录页面提交自己的网址。从目前经验看来这个做法是不成功的,而且有时还有适得其反,被搜索引擎认为是恶意站点。

  六相同源码网站(这种技术和域名复制很像,不同的域名绑定相同的空间,内容自然相同)

  镜像页面技术只SEOer建设不同域名而内容相同的网站,这样做法可以有效的提高网站被搜索用户浏览的几率。

  但是,当下搜索引擎一般采取了网页指纹技术,为每个网页建立指纹档案,所以采用镜像页面已达到提供被浏览的几率是困难的。

七购买、群发黑链

  群发链接是一般是指使用群发软件批量的向其他网站建立单向链接。这是一种非常常见的优化作弊技术。

  但是,目前各大搜索引擎都可以对其进行识别。而且对两者的处罚也都比较严重。百度的“连坐”处罚也是众人皆知的。被建立单向链接的网站如果指向被搜索引擎惩罚过的网站,也可能遭到搜索引擎同样的惩罚。

  八有链接无内容

  这种事基于超链接传递权重来影响排名的作弊手段。

  其特点是链接农场本身只提供链接交换,不提供实际内容只是将大量链接罗列在一起的网站。

  不过目前大量数据表明加入链接农场是一件很危险的,搜索引擎垃圾网站将采取一定的惩罚措施。

  seo工作人员的基本工作流程:

  第一步:站内优化

  关键词分析 网站结构/内链 细节优化(很重要) 内容策略(用户良好体验的基础)

  第二步:站外优化

  外链策略 外链方法 社会化媒体(这个现在就比较普遍了例如微博营销 博客等等)

  第三部:总结提升

  流量统计:统计百度来的流量 日志分析:蜘蛛来爬的日志 用户来的关键词流量日志 外链分析:分

  析发的外链的程度例如收录情况 优化方案

  1,如何进行站内优化?

   1摒弃框架

虽然框架用起来之后对网站页面内容的呈现具有非常好的作用。例如,你可以使用两个框架,菜单栏放一个,内容页面放一个,这样,菜单栏静止不动,只需要被点击然后就可以滚动查看内容页面。非常精巧。

但是,如果针对搜索引擎或者网络营销的角度来看,最好不要采用,因为框架的主要问题在于其每个页面不能有自己的标题。更为糟糕的是,有些搜索引擎对框架结构的页面不能正确处理,会影响到搜索结果的排列名次。所以一般情况下,尽可能不采用框架结构。现在一般网站都是采用表格定位的网页设计

   2优化你的css,减少服务器的消耗

  Css就是层叠样式表。一句好说的好,html代码只是罗列网页上面需要呈现的内容,但是如何被更好、更舒服的呈现给用户,这就需要CSS样式来定制位置,但是,如果用户希望能够和该网页进行交互交流呢?JS代码代为实现。

  所谓的CSS样式表,其实可以分为两张方式被调用。

  例如新浪网的首页由于浏览量过大,为了节省带宽就是采用了内部调用css文件的方法。可以提高服务器的使用效率,每位浏览者只需要占用一个响应线程就可以实现样式表的定位。

  外部调用是.css文件复用的一种方法。当用户浏览时下载完一遍css文件,在浏览同模板生成的网页就不用再次下载,有效的减小了网页文件大小。

   3javascript的复用

在搜索引擎优化工作中,Javascript同样起着复用.JS文件的作用,善于使用.JS文件能大大节省网站系统资源。

JS大量使用的弊端:

  JS内容不被大多数的搜索引擎所检索,所以,网站的导航菜单栏部分肯定不要用JS调用。

  既然不被检索,所以,如果网站内有大面积的JS调用,肯定对收录有影响。

  网页内很多的JS代码就代表着页面一开始就堆积了很多的JAVA代码,从而导致META和KEYWORDS很久才能被爬虫发现,对SE极为的不友好。

   4flash的设计

  网页设计者使用 Flash 创作出既漂亮又可改变尺寸的导航界面以及其他奇特的效果。但是很可惜到目前为止基本没有任何一款搜索引擎能够识别他。

  也就是说如果网站的入口首页是通过FLASH制作而成,那么该网站所有内容,搜索引擎都将不能收录。

  FLASH优化的方法是:

  1,将FLASH内嵌到网站首页中,这样提高观瞻性的同时,能够给爬虫链接进入到网站内部。

  2,在全部使用FLASH制作首页的同时,在做一个HTML首页副本,使爬虫通过副本进入识别网站内容。

   5图片的技术优化

  1,大图片应该裁剪成若干个小图片拼接在网页页面上,就像儿童玩的拼图一样。

2,<img src="..//page/images/2.gif" width="230" height="60" >
这种代码对SE来说,都一样,它分不清该图片的内容。

<img alt="fuck you ,man!" src="..//page/images/2.gif" width="230" height="60" >

加上alt标签,这样就轻松表明了图片的含义,使搜索引擎抓能够取到有用的信息。

   6动态网页静态化

  这里说的动态网页,

  是指采用动态网站技术生成的网页都称为动态网页。

  与网页上的各种动画、滚动字幕等视觉上的“动态效果”没有直接关系,而是与静态网页相对应的,也就是说,网页 URL的后缀不是.htm、.html、.shtml、.xml等静态网页的常见形式,而是以.asp、.jsp、.php、.perl、.cgi等形式为后缀,并且在动态网页网址中有一个标志性的符号——“?”。

  1,动态网页是根据数据库为基础的,很大程度上减少了网站的维护工作量

  2,动态网站可以增添更多的功能,如用户注册、用户登录、用户管理、在线订单等。

  3,动态网页不是独立存在于服务器上的网页文件,而是当用户请求数据库的时候,才返回给用户一个完整的网页。

  SE对动态网站的不信任主要来源于:

  1,爬虫在动态网站中爬行很容易陷入死循环而不能完全的抓取网站内容,严重影响网站收录量。

  2,抓取到的网页中也会产生大量重复的页面,在搜索引擎看来同内容不同url地址的网页本身就是一种对排名作弊的行为,从而产生对网站的不信任。

  http://www.hqjhw.com/newsdatel2.asp?id=2893&class_id=20

  和http://www.hqjhw.com/newsdatel2.asp?id=2893

  解决办法:

  1,网站程序改造,全部动态页面静态化。

  2,网站程序改造,实时更新伪静态网页。

   7首页链接入口

  首页是被爬虫最为经常光顾的地方,所以其结构设计一定要非常精心。

  首页可以做成网站的地图,来引导爬虫深入到我网站的每个重要的角落。

  总的来说,首页上链接起着通向内页和栏目页的纽带。所以合理设计首页网站日后能被搜索引擎大量收录的一项重要任务。

   8面包屑导航

  面包屑导航的典故来自于格林童话故事。代表着访客的历史路径。

  目的是帮助你追溯来路,因而它应该是一种线性的导航方式。

  但是每个浏览器都将访客的“历史记录”做好了,所以,面包屑导航也就演变成网页设计的元素。也就是我们经常看到的“首页>某栏目页>内容页面”这样的方式。

  合理的设计网站栏目管理,能够使得访客非常轻松的找到自己目前所处的位置,又能保证栏目分类后的各个栏目的权重不至于太分散。

  调查统计发现,如果访客有3次的点击而没有找到自己想要的内容,就会义无反顾的离开。所以,3层目录结构也是浏览体验的需要。

   9用户思维

  与浏览者换位思考从某种程度上也是体现内部链接相关性的一种操作方式。也就是访客看完这篇文章后,网站的建设者推荐给访客可能通过这篇文章希望了解的内容。

这样的网页链接设计会使浏览者就像冲浪一样,一页一页的浏览下去,直到找到需要的产品信息。

  还有一个就是添加内容的标题了。通过了解客户访问我网站的搜索技巧和习惯,来精心布局标题的写法,使得更多的访客通过搜索进入我网站浏览内容。

   10紧扣主题

  网站的首页为心脏,内部链接可以比喻成血管,所有的网页为血液。

  心脏通过跳动压缩血液通过血管在体内流动。

  权重由首页传递给每个栏目页,然后由每个栏目页传递给每个内容页,最后再由内容页传递给首页。这样就是一个完美的内部链接回路。

  一个栏目页由本栏目下的内容页推荐投票产生排名权重,而一个网站的首页是由全网站所有内容页推荐投票和所有栏目页推荐投票共同产生的排名权重。所以,所有的SEO工作者都在追求收录量,这就是更多的收录就可以有更多的权重传递给首页。

   11robots.txt

  robots.txt是一个纯文本文件,通过在这个文件中声明该网站中不想被robots访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

  当一个搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果找到,搜索机器人就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。

robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

  免费robots在线制作工具http://www.clickability.co.uk/robotstxt.html

   12网站地图(分为xml和html以及RSS三种格式。)

  每个人第一次到一个陌生的地方,肯定都需要地图的引导,爬虫也不例外。网站地图可以被看做网站主要栏目之间的桥梁。起着引导浏览者和促进爬虫程序遍历全站的作用。但是,应该保持每个地图有不超过100个链接入口。

  对于大型网站来说,例如天极网的html地图http://www.yesky.com/sitemap.html,指向频道页及下级分类页的文本链接就足够了,更重要的是让用户很清楚的了解到天极能提供什么以及天极的特色在哪里。

  而对于中小型网站来说,仍建议在网站地图中加入内容页的文字链接,可以通过技术手段生成以文章关键词搭配文章标题为锚文本的文字链接网站地图,并且用程序控制链接数量并自动分页。

    13链接安全性

  极力避免网站内部出现大量的死链接页面。因为网站内部链接错误会引起搜索引擎的爬虫程序找不到你链接的网页,导致无法正常收录网页。

  这就体现在网站改版之前和之后中间的衔接点了。推荐死链接检查工具Xenu

可以建立404错误页来保证你的网站不会因外链错误导致访客浏览。

   14链接打开速度

  缓慢的服务器不仅影响访客打开网页时的心情,还影响搜索引擎爬虫程序下载你的网页。

  每个爬虫爬行程序不但有下载数据包的大小限制外同时还有下载时钟限制。如果在规定的时间内网页内容没有被完全下载,那么就采取放弃措施。这就导致网站收录不好,信息采集不完全。

   链接打开慢的原因:

  1,服务器超过承受的负载,导致打开新网页过慢。这个时候,就需要调整服务器数据库的负载均衡。

  2,单个网页文件过大,下载速度较慢。

 站内页面优化

<head>之内和之外的做法...

无非就是TDK:三者的写法、长度的控制以及和自己所希望得到的效果紧扣,三不过四、四不过三、二不过五

  1标题title

  可以说网页的优化是从title开始的。搜索结果中,每个抓取的内容的第一行显示的文字应该就是title.title毫无疑问是一个网页的核心,一定要少于20个汉字,如果是英文应该控制在60个字母以内,超出部分同样不进入排名计算。

  例如:百度搜索二手房,可以看到排在前面的几个都是大网站的二手房频道,二手房这个词是排在最前。

  A写法尽量简洁、精炼,肯定要包换关键词和网页所要呈现的主题,切记浮夸、欺骗性文字。

  B前10个字对SE来说非常重要,所以,title中你希望展现的东西一定要靠前排列。

  2关键词keywords

  keywords展现给SE的是我这个网站是围绕着这几个词展开的。所以,keywords的编写是为了能够在网站中找到相应的匹配,这样才能有利于排名,切记堆砌,省的被K。

  例如 焦点房地产网的keyword是:

  meta name="keywords" content="北京二手房,北京二手房网,北京二手房买卖,北京二手房出售,二手房交易,二手房贷款,二手房过户,二手房买卖合同"完全围绕二手房这个关键词展开的。

  3描述description

  描述一般被认为是网页的门面和概要,是为了简述该网站的大致内容。描述的书写要注意以下问题:

  A描述一定要有核心关键词,和正文相关的关键词,因为这个地方,不仅SE会看,访客也会在第一印象中要不要点击的决定。

  B肯定也要简短、精炼,少于200汉字。

  C对title和keywords没说清楚的内容进行补充。

  例如:焦点房地产网的描述:meta name=description content="焦点房地产网北京二手房栏目,是北京人气最旺的二手房网,提供丰富的北京二手房源信息,包括北京二手房买卖、北京二手房出售、中介出售、个人出售、北京二手房求购等板块,内容包括二手房交易、二手房信息发布、二手房贷款、二手房过户、二手房买卖合同、二手房动态、二手房市场、二手房视频、二手房评估、二手房政策、二手房论坛、法律咨询等。"

  4,meta标签

  robots标签、版权标签、作者标签、编码标签。

 

站内网页三要素:图片、文章、链接

  网页质量是看描述的内容是否大量与其他网页重复,还看描述主题的文字是否具体。在搜索引擎数据库里,搜索引擎可以为每张网页建立一个特征标识,用来衡量那些网页是新近出现在互联网的。

  搜索引擎是模拟人的思维方式,为搜索者提供良好的搜索体验。同样合理撰写主题也很重要,网页内容必须围绕关键词来撰写。力争每个网页内容都是与众不同的,换句话说文章越是原创的越有竞争力。做到与众不同需要对产品的深入了解,同时也要考虑写作技巧。

  关键词密度与分布

  关键词的密度是指关键词在一个网页中曝光的次数。在对网页质量章节我们讨论过,网页内容要围绕关键词去写。这样的写作方式seo工作者就不得不增加关键词出现的频率。有测试表明关键词出现的频率最好在2%~8%左右,这个频率最被搜索引擎数据计算适应。超过这个频率有可能遭到搜索引擎惩罚。

  在现实生活中人脑可以轻易的分辨出网页上文章标题和小节标题的区别,但是当下搜索引擎技术还不成。如果网页上所有文字都是用

做标签的话,搜索引擎可能真的很难分辨不出来文章真实的主题内容是那段文字。所以,这就需要网页代码标签的着重处理,例如<strong>和<hx>标签的使用。

这样做的好处是:

  1,使浏览者更容易分辨出那些是网页文字的重点内容,以便于更方便的阅读。

2,面向搜索引擎分析所用的语义化处理,友好的语义化标签能使搜索引擎更好的抓取和分析网页上的内容。

<h1><h2><h3><h4><h5><h6>作为标题标签,并且依据重要性递减。<h1>是最高的等级。

  例如

  <h1>主标题</h1>

  <h2>次标题</h2>

  而不要使用:

  <div class=”title”>主标题</div>

  <div class=”title”>次标题</div>

这样的话,搜索引擎是不能分清楚谁是主标题,谁是副标题的。

  COPY对手的网站

  拷贝对手的网站指的是拷贝网站设计和优化思路,不是说通过采集软件来采集对方网站内容。Copy对方网站构思很重要,尤其对一些初学者来说这个是进步的最佳捷径。你可以学习别的网站title写法,也可以学习其他网站的外链布置。在此建议读者每天学习分析3~5个网站,找到他们的优点,转化成自己网站的东西。

  严格控制网页的大小

  对SE来说,看到的不是用户看到的网页样式,而仅仅是镜像,也就是搜索引擎的快照。

  但是不同的SE对其设定的对网页的镜像文件大小要求截然不同。baidu的为125KB,而Google设定的是300KB

例如百度的镜像文件大小限制为125k,就说明网页代码从头计算,超过125k以后的代码无论是文字还有链接对被搜索引擎来说都是未知的,而且也不能进入排名计算。可能有的读者认为不完整的网页搜索引擎能识别出来吗?在此可以打保票的说,当下关于网页的容错技术已经十分的完善,做到这点非常简单。所以,在进行搜索引擎排名优化前要严格控制网页的大小,尽可能为网页减肥。

控制好网站内容的更新频率

  一个经常定时更新的网站在搜索引擎看来也是一个优质的网站。

  搜索引擎的爬虫是经常的来网站光顾的,所以,其对网站什么时候更新,更新数量以及频率是非常了解的。所以,如果你第一天更新3篇文章,然后隔了一个月没更新,再次更新时突然增加到1000篇文章,很明显这些文章是不可信任的。不可信任的结果就是被视为在有意作弊,也就是常说道的惩罚。

  但是,对于大多数站长来说,手上有很多站,每每都不能完全顾及,所以,可以考虑SE数据库的更新时间,在其更新前进行一次网站主要页面的更新,保持网站在搜索引擎内的一种激活的状态。

 站内文章优化

原创文章和高质量文章是等同的吗?---> 肯定不是

文章标题--->内容长度--->列表堆砌--->瀑布式排版--->底部版权增加信任

混沌文章秒收内页

  一个好的优化人员肯定是一个好的写手...

 站内链接优化

  通过内链建设提高关键词排名...

2,如何进行站外优化?如何做高质量链接?

搜索引擎通过链接相关性计算,来评估网站的重要性和权威性。

  Baidu和Google的超链分析法:在某次搜索中所有结果中,被其他网页用超链指向的越多的网页,其价值就越高,就应该排在搜索结果页的前面。

何为高质量链接?

当然,我们在衡量链接是否是高质量的之外,其网站本身的更新频率和质量也应当被考虑。一个不经常被更新的网站,其对爬虫的频繁爬取是不利的,也就导致了自己的站也很难通过该链接“邀请”到爬虫的来访。

  1,单向链接

对方网页上有我的链接,而我方没有他的链接的方式。

理论上讲,这种事最好的一种链接方式。可以保证PR能够顺利传递到我网站,而且保证了我网站的权重不会外流。另外,还有可能带来一定的流量。

但是,现实中很少有这么慷慨的傻子站长。

  2,双向连接(友情链接)

这种是指网站之间相互链接(也称友情链接),这是一种网站间互惠的一种链接方式。优点是项目实施成功率高,缺点是排名被作用减弱。

  交换友链的时候要注意的事情:

  A,看对方的网站是否健康。

  通过site命令,来看到搜索引擎对该网站的收录量和实际网页数量的比值是否合适。一般情况下,收录量和健康程度成正比。如果收录为零,不要换。

  B,内容相关性。

  也就是说如果你是“周杰伦歌友会”的站点主题,对方是“奥迪营销”,这两个站最好不要换。

  C,对方网站行业内的地位。

  如果对方网站在行业内具有一定的权威性,那么,无论是网站的曝光度还是在SE方面,都是具有很大的优势,因为他值得被信任。

  D,PR值。

  虽然Google的各方面都在一直强调PR值被过多的重视了。但是,不可否认,他还是有非常强大的作用的。所以,换友链时候看PR值也是非常关键的步骤。因为一般认为,PR值得大小事衡量一个网站外链多少的风向标。站长在工作过程中,对PR值得关注、记录和分析也非常重要。

  E,导出链接少

除了导航站之外,如果对方网站的导出链接非常多,这个就不好做友情网站了。在Google的一份专利报告中显示,一个网页HTML代码中前100个链接被纳入PR值计算中,而其他链接被忽略。

  F,站群互链

  所谓的站群,就是为了能为主站获得更好的排名和流量,而故意在同IP和不同IP的服务器上建立成百上千个相关网站,然后再通过这些网站导出单项锚文本链接到主站上,推荐给主站投票,增强其在SE端的权威性。

  3,锚链接

200分 10分 1分 0分...

什么是锚链接?在SEO这个领域里锚链接可以理解为文本链接。

锚文本的样式:

A <a href = “www.nokia.com”>诺基亚</a>

B <a href = “www.nokia.com”>nokia</a>

C <a href = “www.nokia.com”>www.nokia.com</a>

这里涉及到你的关键词选择,如果选择的中文是“诺基亚”,那你的锚链接应该要选择A。因为搜索引擎是按照词项匹配进行计算的,而且现代主流的搜索引擎对超链接的计算也没有翻译功能。对于目前的搜索引擎只有做好锚链接才能保证网站排名靠前。

4,外链数量

外链的建设中,有规律的数量建设非常重要,避免了作弊的嫌疑。

5,链接的相关性

A内容相关

我网站是做数码产品的,对方网站是做数码产品评测的。这两个网站就具有很大的相关性。来自数码产品评测的网站给我的友情链接要远远好于一个做金融的网站给我的友情链接在搜索排名上面的贡献大。

虽然行业相关的做友情是最好的,但是同行业的竞争也对友情的交换产生阻碍。但是,如果同行业但是受众群体不同的两个网站换取友链的机会还是很大的。例如做外汇的两个网站,一个是代理FXSOL平台,一个是代理FXCM平台,这两个网站虽然是同行竞争,但是,对象不同,所以,交换的可能性较大一点。

  当然,这个时候也是考验站长与人沟通能力的时候了,与人沟通,广开人脉也是网站经营的一种生存之道。

B锚文本的文字相关

如果你的网站主题是“周杰伦歌友会”,所以你的锚文本应该是围绕“周杰伦”展开,如果你用“王力宏”,这就一点效果都没有了。

  6,诱饵链接

专业知识、娱乐恶搞、资源下载...

国内的“诱饵链接”是ZAC最初提出的,当然他也是抄袭国外的论坛博客中的描述(鄙视,通过翻译而在国内部作威作福)。

    所谓的诱饵链接是指靠页面内容能够吸引非常多访客的眼球,所有负责执行施放诱饵的人必须有很高的创意策划能力。

    通过合理的规划诱饵链接页面,能够非常轻易的使得网站获得大量的反链,这不仅可以提高网站的曝光度,肯定会大量的提高网站的浏览量。更为重要的是,这些反链都是自然获得的,并且具有很强的文本相关性,能够有效的提高网站外链建设的广度,从而提高其在SE中的排名。

  制造诱饵链接的方式:

  1,专业性文章、新闻

  这类文章当然不是想新浪、网易等的大路新闻,而是某一个网站所特有的内容,例如对待一件事情和新闻所表达出一些不同的看法等。

  当然,要写自己不同角度和看法的文章,肯定少不了推翻、批评一些已经存在的文章,在反驳他人之前一定要把我好两个前提:

  A你所反驳的事情要有一定的深度,要有价值。不要因为家长里短、鸡毛蒜皮的小事在那里吠叫,肯定没人看。

  B你所反驳的对象要有一定的知名度。这和有目的的攻击和反驳他人观点比较,明显层次又提高了一层。目前来看,反驳、批评已经存在的知名人士和他的观点越来越普遍,这也是诱饵链接收到不少人质疑的原因。

  2,幽默娱乐文章

  上班这么累,肯定大把的人群希望能够在网络上找到缓解压力、开心一笑的内容。

  3,资源下载

  这方面不用说,只要是有用的资源,只要是免费的资源,每天的人流量肯定爆满。

  4,八卦、炒作性新闻

类似谢霆锋和张柏芝复婚了、汪峰和章子怡分手等消息...要相信,人们猎奇的心理主要分布在眼睛和耳朵里。。。

  网站外链建设高级篇:

  1,全球最大的开放式目录库dmoz.开放目录项目Open Directory Project 简称ODP

  A,因为像baidu/google这种大型的SE都是采用的ODP数据库,所以,如果你的站点一旦被其收录,对你PR值得提高时非常有帮助的。

  B,国内有很多人是复制DMOZ 的数据,相当于间接给你做链接,对提升PR 很有帮助。

  C,由于DMOZ的数据是多个大型搜索引擎数据库的基础。进入DMOZ网站后他的导出链接排名作用会超乎想象,甚至你的网站将成为搜索引擎收录排名的宠儿。

  下面的问题就转变为如何向DMOZ提交站点?

  A,通常来说少于1000个注册用户和10000篇帖子的论坛不会被通过, 当然用采集的方式弄来的帖子和注册用户以及全部是转载也不行, 不要低估了编辑员, 因为他们见过的网站通常比你多。

  B,提交之前避免有错误

  如果网页有错误, 编辑员就可以有足够的理由拒绝你。错误包括页面错误、链接错误等等, 也包括页面上的恶意代码。

  C,提供好的站点描述

  因为DMOZ一般是站在第三方的角度上来推广你的网站,所以,如果你的站点描述写的太霸气,透露出一种“天下舍我其谁”的话,那估计就没戏了。

  如果你提交了一个不错的站点描述, 编辑员会十分乐意收录你的站点, 因为他只需要点一个链接就完成了全部工作, 而不用访问你的所有页面之后再写一个描述。具体的描述的格式和写法,可以死参照已经收录的站点的写法。

  D,不要提交到不相关目录。

  没有一个编辑会把不相关的网址收录到自己编辑的目录中。即使该收录员非常积极,他也不会花时间帮你把站点递交给同事。看到不爽的、不对的,一笔取消,so easy!

  E,SEO痕迹不要太明显。

  尤其是title、keywords、description中的内容。同时也不要请所谓的SEO公司帮你提交,除非他是DMOZ收录人员,否则大家都一样,没有秘诀。

  F,不要重复提交和多镜像站点提交。

  虽然站点在DMOZ出现的频率越多越好,但是,如果被发现是重复的提交站点和镜像,肯定是要被无情的删除的。虽然Dmoz有诸多问题, 但是Dmoz依然是搜索引擎的基础, 也是网站优化和排名的重要参数, 所以我们得善待它。

  2,一定不要购买付费链接

  这种情况在SEO界比较盛行,例如卢松松的博客火了,然后我给他很多钱,然后让他写一篇关于外汇知识的文章,他肯定不懂呀,所以就在网络上摘抄、拼接,然后留上我网站的链接。

  或者直接在他网站上买一个月的文本链接。

  目前所有的主要搜索引擎都反对购买链接这一条。谷歌的站长指南禁止购买只是为了提高搜索排名的链接。其它搜索引擎(包括Ask, MSN及雅虎),只要他们是模仿谷歌基于链接的搜索排名的搜索引擎,都劝阻买卖链接。

3,总结提升?

--->分析、模仿、实战、总结、提升,最终目的在不要留任何的SEO痕迹的情况下赚取利益。

posted on 2014-04-19 23:19  探灵档案  阅读(428)  评论(0编辑  收藏  举报

导航