Fork me on GitHub
索引分类

Pages & Extents(页和扩展盘区)
    SQL Server 2000最基本的数据存储单元是data page,1个8K的存储空间。在分配存储空间时,SQL Server 2000并不是每次分配1个page,基本的存储空间分配单元是8个page的连续空间,称为extent。
    关于SQL Server 2000的page、extents和index结构,参考:MSDN - Pages and Extents, MSDN - Table and Index Architecture。

    Page Split(页切分)
    SQL Server在Insert/Update时,如果要更新的page已经存储满,无法容纳下新的数据,则SQL Server将这个page的一半数据切分出来,重新分配一个page存放,然后再进行Insert/Update操作,将以满的数据页切分成两个数据页的操作叫做page split。
    不管是data page还是index page,都会发生page split。在Insert操作时,如果page上的free space小于要插入的记录大小,将进行page split;在Update时,如果table中存在变宽字段,变宽字段的长度变大导致原page上free space不够,将进行page split。

    Index Fragmentation(索引碎片)
    SQL Server的index fragmentation有两种:external fragmentation和internal fragmentation。
    External fragmentation:
    Index page的逻辑顺序不连续时,叫做external fragmentation。Index建立时,index page的存储在逻辑上都是连续的。在进行insert操作时,可能需要在两个索引之间插入这个新的索引。如果在索引插入位置的index page还有足够的空间,则会直接在这个index page中插入新的索引值;如果在这个index page上空间已满或者不够新的索引值所需空间,则SQL Server会进行page split,将插入位置的index page一部分数据移走,以释放出空间来插入新的索引,被移走的数据在其它位置重新分配新的page存放。这样,随着insert操作的增加,index page在逻辑上的连续程度就越来越低。
    下图示例索引刚刚建立好之后逻辑上是连续时的索引结构:
   
    假如此时需要插入索引值为2的新索引,则插入之后的索引结构如下图:
   
    插入之后index page结构在逻辑上变得不连续。
    在通过index返回特定记录,或者返回不用指定排序的记录集时,external fragmentation不会对查询性能产生太大影响。当需要返回指定排序的记录集时,排序过程中需要对逻辑上非连续的index page进行额外处理,对于大数据量的表,如果index page非常多,external fragmentation很严重,就需要消耗高昂的查询成本。另外,external fragmentation对缓存效率产生影响。
    External fragmentation使用两个方面的指标来描述,page的连续程度和extent的连续程度。
    Internal fragmentation
    Index page中如果存储空间未达到最大存储容量,叫做internal fragmentation。不考虑fill factor因素的影响,index建立时,索引结构逻辑上连续,并且每个index page都存储满,被充分利用。Delete操作会造成index page出现空闲;External fragmentation的示例中,insert操作时的page split也造成index page出现空闲。
    严重的internal fragmentation,造成index page占用比实际所需大得多的存储空间。查询中进行index scan时,增加了logical READS、I/O等操作,产生性能问题。
    Internal fragmentation使用页的平均页的空闲程度/利用程度作为指标。
    Fill factor:
    如果有设置或者是SQL Server自动维护了一个fill factor值,则在创建索引时,每一个index page都不会存储满,而根据fill factor值预留一部分空闲空间。在external fragmentation的示例中,假如第一个index page没有存储满,则在插入索引值为2的新索引时,就不需要将这个index page进行split,从而可以改善insert操作。
    Fill factor用于需要频繁进行insert/update操作的表中,避免大量的page split出现。显然,fill factor的使用类似于internal fragmentation,但对大量的insert操作以及各种data page的结构带来极大的改善。对于fill factor,不太方便准确的评估什么样的值最佳,Microsoft建议让SQL Server自动维护。不恰当的fill factor设置,同internal fragmentation一样,影响SQL Server性能。

    DBCC SHOWCONFIG
    用于显示数据、索引fragmentation信息。
    DBCC SHOWCONTIG (TblUserItem,PK_TblUserItem)
    显示表TblUserItem中索引PK_TblUserItem的fragmentation信息。
    DBCC SHOWCONTIG (TblUserItem) WITH ALL_INDEXES
    显示表TblUserItem所有索引的fragmentation信息。
    DBCC SHOWCONTIG WITH ALL_INDEXES
    显示当前数据库中所有索引的fragmentation信息。
    执行的结果示例如下:
   DBCC SHOWCONTIG 正在扫描 'TrackServer' 表...
表: 'TrackServer' (1632991252);索引 ID: 0,数据库 ID: 9
已执行 TABLE 级别的扫描。
- 扫描页数................................: 217
- 扫描区数..............................: 44
- 区切换次数..............................: 43
- 每个区的平均页数........................: 4.9
- 扫描密度 [最佳计数:实际计数].......: 63.64% [28:44]
- 区扫描碎片 ..................: 97.73%
- 每页的平均可用字节数........................: 628.1
- 平均页密度(满).....................: 92.24%
DBCC 执行完毕。如果 DBCC 输出了错误信息,请与系统管理员联系。    Page Scanned:实际扫描的page数量。可以从每个数据行的大小、总的行数大致计算出实际所需的data page数量,如果Page Scanned数量远远超过计算出的实际data page数量,则internal fragmentation比较严重。
    Extents Scanned:理想值为将Page Scanned/8圆整为最小整数。如果Extents Scanned大于理论值,则存在一定程度的external fragmentation。
    Extent Switches:理想值为Extents Scanned减1,超过这个值说明存在external fragmentation。
    Avg. Pages per Extent:理想值为8,小于8则存在external fragmentation。
    Scan Density [Best Count:Actual Count]:这是DBCC SHOWCONTIG返回的最有意义的一个值,为理想的extents数量比实际的extents数量,反应external fragmentation的重要统计信息之一。理想值为100%,不能低于60%。
    Logical Scan Fragmentation:另外一个非常有意义的值,指示page的非连续程度,反应external fragmentation的重要统计信息之一。应当在0%-10%之间,不能高于15%。
    Extent Scan Fragmentation:指示extents的非连续程度,理想值为0%。
    Avg. Bytes Free per Page:平均每page上的空闲字节数。过高的值表明存在internal fragmentation,但是需要将fill factor因素排除。
    Avg. Page Density (full):与Avg. Bytes Free per Page对立的一个百分比参数,较低的值表明存在internal fragmentation。
    另外DBCC SHOWCONTIG还有几个可选参数可以使用,具体参考Online Help。

    Resolving fragmentation issues
    1. Drop原来的索引再重建这些索引
    这个过程中索引被drop和rebuild,会使这个期间所有的查询阻塞;对所有的clustered index和non-clustered index使用该方法,可能会导致non-clustered index重建两次。
    优点是索引彻底重建,达到最理想的状况。如果external和internal fragmentation都相当严重,应当使用该方法。
    2. 使用DROP_EXISTING子句
    使用DROP_EXISTING子句,可以避免non-clustered index被重建两次。
    3. DBCC DBREINDEX
    可以仅指定Table名字,而无须指定索引名称,该命令自动将Table的所有索引进行重建,这样比写多条DROP INDEX和CREATE INDEX语句进行操作要方便。这个命令同时将Table的PRIMARY KEY和UNIQUE约束、STATISTICS重建,无须额外对这些约束和STATISTICS进行操作。
    DBCC DBREINDEX能够比较充分的利用多CPU进行处理,对数据量相当大和fragmentation非常严重的表操作时会比较快。
    该方法在一个事务中完成操作,在数据文件中需要有足够的free space来满足将所有的索引及相关的一些对象进行重建,否则操作可能失败,或者是重建的不十分彻底,例如重建完后logical fragmentation可能仍大于0。对于数据量非常大的表,所需的free space也更多,应当特别注意这一点。
    4. DBCC INDEXDEFRAG
    DBCC INDEXDEFRAG分两个步骤进行操作,首先对各个index page进行压缩,释放出多余的page;然后重组index page的各个根节点,使得index page的逻辑顺序与物理存储顺序一致,即在物理存储方向上保证逻辑顺序是连续的。
    4种方法中,其它三种都必须在数据库offline情况下进行,因为在操作期间会导致使用这些索引的所有查询阻塞。DBCC INDEXDEFRAG可以在数据库online的情况下执行,但是整理不够彻底。因为一方面,在执行期间会忽略被lock的 index page,另一方面它不会新分配page进行重排序,只是在原来已分配的page空间里进行重组。这个命令的目标也就是使index page的逻辑顺序与物理存储顺序一致,如果逻辑上相邻的两个page或extent的物理存储之间存在间隔,DBCC INDEXDEFRAG不会采取操作消除这种物理存储间隔。因此如果index page所占用的空间非常大时,访问index page空间可能会增加磁头定位和移动的开销,从而在一定程度上增加了I/O操作成本。

   专家建议:60%<Scan Density<75%、10<Logical fragmentation<15时,使用DBCC INDEXDEFRAG;Scan Density<60%、Logical fragmentation>15时,使用DBCC DBREINDEX。

    另外,在table设计方面,可以考虑以下几点:
    1. 对于Insert/Update操作频繁的table,选择一个合适的fill factor。
    2. 将变宽字段设计为等宽字段。例如物料号、订单号、客户代码、供应商代码等。
    3. 设立删除标记而不是物理删除数据。
    例如有些大型系统,一个对象可能会有几十个字段。通常情况下的做法是用一个table容纳所有这些字段,但是出于系统访问效率方面考虑,可以使用两个 table来存储。主表存放关键性、访问最频繁的字段属性,尽量不使用变宽字段;从表存放附加的、描述性的、访问比较少的字段属性。这样虽然是一对一关联的表,但是对于大多数情况下对于只需要访问主表属性的查询,可以做到极大的提高访问性能。

    关于fill factor 说明:

在创建聚集索引时,表中的数据按照索引列中的值的顺序存储在数据库的数据页中。在表中插入新的数据行或更改索引列中的值时,Microsoft SQL 2000   可能必须重新组织表中的
数据存储,以便为新行腾出空间,保持数据的有序存储。这同样适用于非聚集索引。添加或更改数据时,SQL Server 可能不得不重新组织非聚集索引页中的数据存储。向一个已满
的索引页添加某个新行时,SQL Server   把大约一半的行移到新页中以便为新行腾出空间。这种重组称为页拆分。页拆分会降低性能并使表中的数据存储产生碎片。

使用fill  factor选项指定当使用现有数据创建新索引时,Microsoft SQL  Server  应使每一页填满的程度。由于 SQL Server 必须在填充时花费时间分割这些页面,所以fill   factor 百分比会影响系统性能。   
fill factor 百分比仅在创建索引时使用。这些页面都不可能被维护在任何特定的饱满水平上。   
fill factor  的默认值为   0;其有效值是从 0 到 100。fill factor 的值为0 并不表示页面的填满程度为 0%。类似于 fill factor 设置为100   的情况,SQL Server   在fill factor值为0时,会用页面全部为数据的页来创建聚集索引,用页面全部为数据的叶子页来创建非聚集索引,与fill factor 设置为100 的情况不同的是,SQL   Server   在索引树的高层级别上预留空间。很少有理由去改变   fill   factor   的默认值,因为可以使用 CREATE   INDEX 命令来覆盖它,较小的fill factor  值将导致 SQL Server 以不饱满的页面创建新索引。例如,将 fill factor  值设置为10   对于想在一个最终将保持较少数据的表上创建索引是合适的。越小的  fill factor 值将导致每一个索引占用更多的存储空间,但同时也允许以后可不进行页面拆分进行插入操作。   
如果设置   fill factor 值为100,SQL Server 以100%   的饱满度创建聚集和非聚集索引。
设置fill  factor 的值为100 仅对只读表是合适的,
因为数据从来不被添加到此类表中。

一般的填充因子设置策略:  
  数据变化越频繁,填充因子越小  
  数据越少变化,填充因子越大,
  对于数据不变化的表,填充因子设置为100

一、数据库结构的设计

    如果不能设计一个合理的数据库模型,不仅会增加客户端和服务器段程序的编程和维护的难度,而且将会影响系统实际运行的性能。所以,在一个系统开始实施之前,完备的数据库模型的设计是必须的。

    在一个系统分析、设计阶段,因为数据量较小,负荷较低。我们往往只注意到功能的实现,而很难注意到性能的薄弱之处,等到系统投入实际运行一段时间后,才发现系统的性能在降低,这时再来考虑提高系统性能则要花费更多的人力物力,而整个系统也不可避免的形成了一个打补丁工程。

    所以在考虑整个系统的流程的时候,我们必须要考虑,在高并发大数据量的访问情况下,我们的系统会不会出现极端的情况。(例如:对外统计系统在7月16日出现的数据异常的情况,并发大数据量的的访问造成,数据库的响应时间不能跟上数据刷新的速度造成。具体情况是:在日期临界时(00:00:00),判断数据库中是否有当前日期的记录,没有则插入一条当前日期的记录。在低并发访问的情况下,不会发生问题,但是当日期临界时的访问量相当大的时候,在做这一判断的时候,会出现多次条件成立,则数据库里会被插入多条当前日期的记录,从而造成数据错误。),数据库的模型确定下来之后,我们有必要做一个系统内数据流向图,分析可能出现的瓶颈。

    为了保证数据库的一致性和完整性,在逻辑设计的时候往往会设计过多的表间关联,尽可能的降低数据的冗余。(例如用户表的地区,我们可以把地区另外存放到一个地区表中)如果数据冗余低,数据的完整性容易得到保证,提高了数据吞吐速度,保证了数据的完整性,清楚地表达数据元素之间的关系。而对于多表之间的关联查询(尤其是大数据表)时,其性能将会降低,同时也提高了客户端程序的编程难度,因此,物理设计需折衷考虑,根据业务规则,确定对关联表的数据量大小、数据项的访问频度,对此类数据表频繁的关联查询应适当提高数据冗余设计但增加了表间连接查询的操作,也使得程序的变得复杂,为了提高系统的响应时间,合理的数据冗余也是必要的。设计人员在设计阶段应根据系统操作的类型、频度加以均衡考虑。
   另外,最好不要用自增属性字段作为主键与子表关联。不便于系统的迁移和数据恢复。对外统计系统映射关系丢失(******************)。

    原来的表格必须可以通过由它分离出去的表格重新构建。使用这个规定的好处是,你可以确保不会在分离的表格中引入多余的列,所有你创建的表格结构都与它们的实际需要一样大。应用这条规定是一个好习惯,不过除非你要处理一个非常大型的数据,否则你将不需要用到它。(例如一个通行证系统,我可以将USERID,USERNAME,USERPASSWORD,单独出来作个表,再把USERID作为其他表的外键)

表的设计具体注意的问题:

    1、数据行的长度不要超过8020字节,如果超过这个长度的话在物理页中这条数据会占用两行从而造成存储碎片,降低查询效率。
    2、能够用数字类型的字段尽量选择数字类型而不用字符串类型的(电话号码),这会降低查询和连接的性能,并会增加存储开销。这是因为引擎在处理查询和连接回逐个比较字符串中每一个字符,而对于数字型而言只需要比较一次就够了。

    3、对于不可变字符类型char和可变字符类型varchar 都是8000字节,char查询快,但是耗存储空间,varchar查询相对慢一些但是节省存储空间。在设计字段的时候可以灵活选择,例如用户名、密码等长度变化不大的字段可以选择CHAR,对于评论等长度变化大的字段可以选择VARCHAR。

    4、字段的长度在最大限度的满足可能的需要的前提下,应该尽可能的设得短一些,这样可以提高查询的效率,而且在建立索引的时候也可以减少资源的消耗。


二、查询的优化 

保证在实现功能的基础上,尽量减少对数据库的访问次数;通过搜索参数,尽量减少对表的访问行数,最小化结果集,从而减轻网络负担;能够分开的操作尽量分开处理,提高每次的响应速度;在数据窗口使用SQL时,尽量把使用的索引放在选择的首列;算法的结构尽量简单;在查询时,不要过多地使用通配符如SELECT * FROM T1语句,要用到几列就选择几列如:SELECT COL1,COL2 FROM T1;在可能的情况下尽量限制尽量结果集行数如:SELECT TOP 300 COL1,COL2,COL3 FROM T1,因为某些情况下用户是不需要那么多的数据的。   
在没有建索引的情况下,数据库查找某一条数据,就必须进行全表扫描了,对所有数据进行一次遍历,查找出符合条件的记录。在数据量比较小的情况下,也许看不出明显的差别,但是当数据量大的情况下,这种情况就是极为糟糕的了。
SQL语句在SQL SERVER中是如何执行的,他们担心自己所写的SQL语句会被SQL SERVER误解。比如: 
select * from table1 where name='zhangsan' and tID > 10000 
和执行: 
select * from table1 where tID > 10000 and name='zhangsan' 
一些人不知道以上两条语句的执行效率是否一样,因为如果简单的从语句先后上看,这两个语句的确是不一样,如果tID是一个聚合索引,那么后一句仅仅从表的10000条以后的记录中查找就行了;而前一句则要先从全表中查找看有几个name='zhangsan'的,而后再根据限制条件条件tID>10000来提出查询结果。 
事实上,这样的担心是不必要的。SQL SERVER中有一个“查询分析优化器”,它可以计算出where子句中的搜索条件并确定哪个索引能缩小表扫描的搜索空间,也就是说,它能实现自动优化。虽然查询优化器可以根据where子句自动的进行查询优化,但有时查询优化器就会不按照您的本意进行快速查询。 
在查询分析阶段,查询优化器查看查询的每个阶段并决定限制需要扫描的数据量是否有用。如果一个阶段可以被用作一个扫描参数(SARG),那么就称之为可优化的,并且可以利用索引快速获得所需数据。 
SARG的定义:用于限制搜索的一个操作,因为它通常是指一个特定的匹配,一个值的范围内的匹配或者两个以上条件的AND连接。形式如下: 
列名 操作符 <常数 或 变量> 或 <常数 或 变量> 操作符 列名 
列名可以出现在操作符的一边,而常数或变量出现在操作符的另一边。如: 
Name=’张三’ 
价格>5000 
5000<价格 
Name=’张三’ and 价格>5000 
如果一个表达式不能满足SARG的形式,那它就无法限制搜索的范围了,也就是SQL SERVER必须对每一行都判断它是否满足WHERE子句中的所有条件。所以一个索引对于不满足SARG形式的表达式来说是无用的。 
    所以,优化查询最重要的就是,尽量使语句符合查询优化器的规则避免全表扫描而使用索引查询。

具体要注意的:

1.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num is null
可以在num上设置默认值0,确保表中num列没有null值,然后这样查询:
select id from t where num=0

2.应尽量避免在 where 子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。优化器将无法通过索引来确定将要命中的行数,因此需要搜索该表的所有行。

3.应尽量避免在 where 子句中使用 or 来连接条件,否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num=10 or num=20
可以这样查询:
select id from t where num=10
union all
select id from t where num=20

4.in 和 not in 也要慎用,因为IN会使系统无法使用索引,而只能直接搜索表中的数据。如:
select id from t where num in(1,2,3)
对于连续的数值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3

5.尽量避免在索引过的字符数据中,使用非打头字母搜索。这也使得引擎无法利用索引。 
见如下例子: 
SELECT * FROM T1 WHERE NAME LIKE ‘%L%’ 
SELECT * FROM T1 WHERE SUBSTING(NAME,2,1)=’L’ 
SELECT * FROM T1 WHERE NAME LIKE ‘L%’ 
即使NAME字段建有索引,前两个查询依然无法利用索引完成加快操作,引擎不得不对全表所有数据逐条操作来完成任务。而第三个查询能够使用索引来加快操作。

6.必要时强制查询优化器使用某个索引,如在 where 子句中使用参数,也会导致全表扫描。因为SQL只有在运行时才会解析局部变量,但优化程序不能将访问计划的选择推迟到运行时;它必须在编译时进行选择。然而,如果在编译时建立访问计划,变量的值还是未知的,因而无法作为索引选择的输入项。如下面语句将进行全表扫描:
select id from t where 
num=@num
可以改为强制查询使用索引:
select id from t with(index(索引名)) where 
num=@num

7.应尽量避免在 where 子句中对字段进行表达式操作,这将导致引擎放弃使用索引而进行全表扫描。如:
SELECT * FROM T1 WHERE F1/2=100 
应改为: 
SELECT * FROM T1 WHERE F1=100*2

SELECT * FROM RECORD WHERE SUBSTRING(CARD_NO,1,4)=’5378’ 
应改为: 
SELECT * FROM RECORD WHERE CARD_NO LIKE ‘5378%’

SELECT member_number, first_name, last_name FROM members 
WHERE DATEDIFF(yy,datofbirth,GETDATE()) > 21 
应改为: 
SELECT member_number, first_name, last_name FROM members 
WHERE dateofbirth < DATEADD(yy,-21,GETDATE()) 
即:任何对列的操作都将导致表扫描,它包括数据库函数、计算表达式等等,查询时要尽可能将操作移至等号右边。

8.应尽量避免在where子句中对字段进行函数操作,这将导致引擎放弃使用索引而进行全表扫描。如:
select id from t where substring(name,1,3)='abc'--name以abc开头的id
select id from t where datediff(day,createdate,'2005-11-30')=0--‘2005-11-30’生成的id
应改为:
select id from t where name like 'abc%'
select id from t where createdate>='2005-11-30' and createdate<'2005-12-1'

9.不要在 where 子句中的“=”左边进行函数、算术运算或其他表达式运算,否则系统将可能无法正确使用索引。

10.在使用索引字段作为条件时,如果该索引是复合索引,那么必须使用到该索引中的第一个字段作为条件时才能保证系统使用该索引,否则该索引将不会被使用,并且应尽可能的让字段顺序与索引顺序相一致。

11.很多时候用 exists是一个好的选择:
elect num from a where num in(select num from b)
用下面的语句替换:
select num from a where exists(select 1 from b where num=a.num)

SELECT SUM(T1.C1)FROM T1 WHERE( 
(SELECT COUNT(*)FROM T2 WHERE T2.C2=T1.C2>0) 
SELECT SUM(T1.C1) FROM T1WHERE EXISTS( 
SELECT * FROM T2 WHERE T2.C2=T1.C2) 
两者产生相同的结果,但是后者的效率显然要高于前者。因为后者不会产生大量锁定的表扫描或是索引扫描。

如果你想校验表里是否存在某条纪录,不要用count(*)那样效率很低,而且浪费服务器资源。可以用EXISTS代替。如: 
IF (SELECT COUNT(*) FROM table_name WHERE column_name = 'xxx') 
可以写成: 
IF EXISTS (SELECT * FROM table_name WHERE column_name = 'xxx')

经常需要写一个T_SQL语句比较一个父结果集和子结果集,从而找到是否存在在父结果集中有而在子结果集中没有的记录,如: 
SELECT a.hdr_key FROM hdr_tbl a---- tbl a 表示tbl用别名a代替 
WHERE NOT EXISTS (SELECT * FROM dtl_tbl b WHERE a.hdr_key = b.hdr_key) 
SELECT a.hdr_key FROM hdr_tbl a 
LEFT JOIN dtl_tbl b ON a.hdr_key = b.hdr_key WHERE b.hdr_key IS NULL 
SELECT hdr_key FROM hdr_tbl 
WHERE hdr_key NOT IN (SELECT hdr_key FROM dtl_tbl) 
三种写法都可以得到同样正确的结果,但是效率依次降低。

12.尽量使用表变量来代替临时表。如果表变量包含大量数据,请注意索引非常有限(只有主键索引)。

13.避免频繁创建和删除临时表,以减少系统表资源的消耗。

14.临时表并不是不可使用,适当地使用它们可以使某些例程更有效,例如,当需要重复引用大型表或常用表中的某个数据集时。但是,对于一次性事件,最好使用导出表。

15.在新建临时表时,如果一次性插入数据量很大,那么可以使用 select into 代替 create table,避免造成大量 log ,以提高速度;如果数据量不大,为了缓和系统表的资源,应先create table,然后insert。

16.如果使用到了临时表,在存储过程的最后务必将所有的临时表显式删除,先 truncate table ,然后 drop table ,这样可以避免系统表的较长时间锁定。 

17.在所有的存储过程和触发器的开始处设置 SET NOCOUNT ON ,在结束时设置 SET NOCOUNT OFF 。无需在执行存储过程和触发器的每个语句后向客户端发送 DONE_IN_PROC 消息。

18.尽量避免大事务操作,提高系统并发能力。

19.尽量避免向客户端返回大数据量,若数据量过大,应该考虑相应需求是否合理。 

20. 避免使用不兼容的数据类型。例如float和int、char和varchar、binary和varbinary是不兼容的。数据类型的不兼容可能使优化器无法执行一些本来可以进行的优化操作。例如: 
SELECT name FROM employee WHERE salary > 60000 
在这条语句中,如salary字段是money型的,则优化器很难对其进行优化,因为60000是个整型数。我们应当在编程时将整型转化成为钱币型,而不要等到运行时转化。

21.充分利用连接条件,在某种情况下,两个表之间可能不只一个的连接条件,这时在 WHERE 子句中将连接条件完整的写上,有可能大大提高查询速度。 
例: 
SELECT SUM(A.AMOUNT) FROM ACCOUNT A,CARD B WHERE A.CARD_NO = B.CARD_NO 
SELECT SUM(A.AMOUNT) FROM ACCOUNT A,CARD B WHERE A.CARD_NO = B.CARD_NO AND A.ACCOUNT_NO=B.ACCOUNT_NO 
第二句将比第一句执行快得多。

22、使用视图加速查询 
把表的一个子集进行排序并创建视图,有时能加速查询。它有助于避免多重排序 操作,而且在其他方面还能简化优化器的工作。例如:
SELECT cust.name,rcvbles.balance,……other columns 
FROM cust,rcvbles 
WHERE cust.customer_id = rcvlbes.customer_id 
AND rcvblls.balance>0 
AND cust.postcode>“98000” 
ORDER BY cust.name

如果这个查询要被执行多次而不止一次,可以把所有未付款的客户找出来放在一个视图中,并按客户的名字进行排序: 
CREATE VIEW DBO.V_CUST_RCVLBES 
AS 
SELECT cust.name,rcvbles.balance,……other columns 
FROM cust,rcvbles 
WHERE cust.customer_id = rcvlbes.customer_id 
AND rcvblls.balance>0 
ORDER BY cust.name 
然后以下面的方式在视图中查询: 
SELECT * FROM V_CUST_RCVLBES 
WHERE postcode>“98000” 
视图中的行要比主表中的行少,而且物理顺序就是所要求的顺序,减少了磁盘I/O,所以查询工作量可以得到大幅减少。

23、能用DISTINCT的就不用GROUP BY 
SELECT OrderID FROM Details WHERE UnitPrice > 10 GROUP BY OrderID 
可改为: 
SELECT DISTINCT OrderID FROM Details WHERE UnitPrice > 10

24.能用UNION ALL就不要用UNION 
UNION ALL不执行SELECT DISTINCT函数,这样就会减少很多不必要的资源 

35.尽量不要用SELECT INTO语句。 
SELECT INOT 语句会导致表锁定,阻止其他用户访问该表。

    上面我们提到的是一些基本的提高查询速度的注意事项,但是在更多的情况下,往往需要反复试验比较不同的语句以得到最佳方案。最好的方法当然是测试,看实现相同功能的SQL语句哪个执行时间最少,但是数据库中如果数据量很少,是比较不出来的,这时可以用查看执行计划,即:把实现相同功能的多条SQL语句考到查询分析器,按CTRL+L看查所利用的索引,表扫描次数(这两个对性能影响最大),总体上看询成本百分比即可。 

三、算法的优化

尽量避免使用游标,因为游标的效率较差,如果游标操作的数据超过1万行,那么就应该考虑改写。.使用基于游标的方法或临时表方法之前,应先寻找基于集的解决方案来解决问题,基于集的方法通常更有效。与临时表一样,游标并不是不可使用。对小型数据集使用 FAST_FORWARD 游标通常要优于其他逐行处理方法,尤其是在必须引用几个表才能获得所需的数据时。在结果集中包括“合计”的例程通常要比使用游标执行的速度快。如果开发时间允许,基于游标的方法和基于集的方法都可以尝试一下,看哪一种方法的效果更好。
  游标提供了对特定集合中逐行扫描的手段,一般使用游标逐行遍历数据,根据取出的数据不同条件进行不同的操作。尤其对多表和大表定义的游标(大的数据集合)循环很容易使程序进入一个漫长的等特甚至死机。 
  在有些场合,有时也非得使用游标,此时也可考虑将符合条件的数据行转入临时表中,再对临时表定义游标进行操作,可时性能得到明显提高。
(例如:对内统计第一版)
封装存储过程

四、建立高效的索引

  创建索引一般有以下两个目的:维护被索引列的唯一性和提供快速访问表中数据的策略。大型数据库有两种索引即簇索引和非簇索引,一个没有簇索引的表是按堆结构存储数据,所有的数据均添加在表的尾部,而建立了簇索引的表,其数据在物理上会按照簇索引键的顺序存储,一个表只允许有一个簇索引,因此,根据B树结构,可以理解添加任何一种索引均能提高按索引列查询的速度,但会降低插入、更新、删除操作的性能,尤其是当填充因子(Fill Factor)较大时。所以对索引较多的表进行频繁的插入、更新、删除操作,建表和索引时因设置较小的填充因子,以便在各数据页中留下较多的自由空间,减少页分割及重新组织的工作。 
索引是从数据库中获取数据的最高效方式之一。95% 的数据库性能问题都可以采用索引技术得到解决。作为一条规则,我通常对逻辑主键使用唯一的成组索引,对系统键(作为存储过程)采用唯一的非成组索引,对任何外键列[字段]采用非成组索引。不过,索引就象是盐,太多了菜就咸了。你得考虑数据库的空间有多大,表如何进行访问,还有这些访问是否主要用作读写。 
实际上,您可以把索引理解为一种特殊的目录。微软的SQL SERVER提供了两种索引:聚集索引(clustered index,也称聚类索引、簇集索引)和非聚集索引(nonclustered index,也称非聚类索引、非簇集索引)。下面,我们举例来说明一下聚集索引和非聚集索引的区别: 
其实,我们的汉语字典的正文本身就是一个聚集索引。比如,我们要查“安”字,就会很自然地翻开字典的前几页,因为“安”的拼音是“an”,而按照拼音排序汉字的字典是以英文字母“a”开头并以“z”结尾的,那么“安”字就自然地排在字典的前部。如果您翻完了所有以“a”开头的部分仍然找不到这个字,那么就说明您的字典中没有这个字;同样的,如果查“张”字,那您也会将您的字典翻到最后部分,因为“张”的拼音是“zhang”。也就是说,字典的正文部分本身就是一个目录,您不需要再去查其他目录来找到您需要找的内容。 
我们把这种正文内容本身就是一种按照一定规则排列的目录称为“聚集索引”。 
如果您认识某个字,您可以快速地从自动中查到这个字。但您也可能会遇到您不认识的字,不知道它的发音,这时候,您就不能按照刚才的方法找到您要查的字,而需要去根据“偏旁部首”查到您要找的字,然后根据这个字后的页码直接翻到某页来找到您要找的字。但您结合“部首目录”和“检字表”而查到的字的排序并不是真正的正文的排序方法,比如您查“张”字,我们可以看到在查部首之后的检字表中“张”的页码是672页,检字表中“张”的上面是“驰”字,但页码却是63页,“张”的下面是“弩”字,页面是390页。很显然,这些字并不是真正的分别位于“张”字的上下方,现在您看到的连续的“驰、张、弩”三字实际上就是他们在非聚集索引中的排序,是字典正文中的字在非聚集索引中的映射。我们可以通过这种方式来找到您所需要的字,但它需要两个过程,先找到目录中的结果,然后再翻到您所需要的页码。 
我们把这种目录纯粹是目录,正文纯粹是正文的排序方式称为“非聚集索引”。 
进一步引申一下,我们可以很容易的理解:每个表只能有一个聚集索引,因为目录只能按照一种方法进行排序。

(一)何时使用聚集索引或非聚集索引 
下面的表总结了何时使用聚集索引或非聚集索引(很重要)。 
动作描述 使用聚集索引 使用非聚集索引 
列经常被分组排序 应 应 
返回某范围内的数据 应 不应 
一个或极少不同值 不应 不应 
小数目的不同值 应 不应 
大数目的不同值 不应 应 
频繁更新的列 不应 应 
外键列 应 应 
主键列 应 应 
频繁修改索引列 不应 应


事实上,我们可以通过前面聚集索引和非聚集索引的定义的例子来理解上表。如:返回某范围内的数据一项。比如您的某个表有一个时间列,恰好您把聚合索引建立在了该列,这时您查询2004年1月1日至2004年10月1日之间的全部数据时,这个速度就将是很快的,因为您的这本字典正文是按日期进行排序的,聚类索引只需要找到要检索的所有数据中的开头和结尾数据即可;而不像非聚集索引,必须先查到目录中查到每一项数据对应的页码,然后再根据页码查到具体内容。


(二)结合实际,谈索引使用的误区

理论的目的是应用。虽然我们刚才列出了何时应使用聚集索引或非聚集索引,但在实践中以上规则却很容易被忽视或不能根据实际情况进行综合分析。下面我们将根据在实践中遇到的实际问题来谈一下索引使用的误区,以便于大家掌握索引建立的方法。 
1、主键就是聚集索引 
这种想法笔者认为是极端错误的,是对聚集索引的一种浪费。虽然SQL SERVER默认是在主键上建立聚集索引的。 
通常,我们会在每个表中都建立一个ID列,以区分每条数据,并且这个ID列是自动增大的,步长一般为1。我们的这个办公自动化的实例中的列Gid就是如此。此时,如果我们将这个列设为主键,SQL SERVER会将此列默认为聚集索引。这样做有好处,就是可以让您的数据在数据库中按照ID进行物理排序,但笔者认为这样做意义不大。 
显而易见,聚集索引的优势是很明显的,而每个表中只能有一个聚集索引的规则,这使得聚集索引变得更加珍贵。 
从我们前面谈到的聚集索引的定义我们可以看出,使用聚集索引的最大好处就是能够根据查询要求,迅速缩小查询范围,避免全表扫描。在实际应用中,因为ID号是自动生成的,我们并不知道每条记录的ID号,所以我们很难在实践中用ID号来进行查询。这就使让ID号这个主键作为聚集索引成为一种资源浪费。其次,让每个ID号都不同的字段作为聚集索引也不符合“大数目的不同值情况下不应建立聚合索引”规则;当然,这种情况只是针对用户经常修改记录内容,特别是索引项的时候会负作用,但对于查询速度并没有影响。 
在办公自动化系统中,无论是系统首页显示的需要用户签收的文件、会议还是用户进行文件查询等任何情况下进行数据查询都离不开字段的是“日期”还有用户本身的“用户名”。 
通常,办公自动化的首页会显示每个用户尚未签收的文件或会议。虽然我们的where语句可以仅仅限制当前用户尚未签收的情况,但如果您的系统已建立了很长时间,并且数据量很大,那么,每次每个用户打开首页的时候都进行一次全表扫描,这样做意义是不大的,绝大多数的用户1个月前的文件都已经浏览过了,这样做只能徒增数据库的开销而已。事实上,我们完全可以让用户打开系统首页时,数据库仅仅查询这个用户近3个月来未阅览的文件,通过“日期”这个字段来限制表扫描,提高查询速度。如果您的办公自动化系统已经建立的2年,那么您的首页显示速度理论上将是原来速度8倍,甚至更快。

2、只要建立索引就能显著提高查询速度 
事实上,我们可以发现上面的例子中,第2、3条语句完全相同,且建立索引的字段也相同;不同的仅是前者在fariqi字段上建立的是非聚合索引,后者在此字段上建立的是聚合索引,但查询速度却有着天壤之别。所以,并非是在任何字段上简单地建立索引就能提高查询速度。
从建表的语句中,我们可以看到这个有着1000万数据的表中fariqi字段有5003个不同记录。在此字段上建立聚合索引是再合适不过了。在现实中,我们每天都会发几个文件,这几个文件的发文日期就相同,这完全符合建立聚集索引要求的:“既不能绝大多数都相同,又不能只有极少数相同”的规则。由此看来,我们建立“适当”的聚合索引对于我们提高查询速度是非常重要的。

3、把所有需要提高查询速度的字段都加进聚集索引,以提高查询速度 
上面已经谈到:在进行数据查询时都离不开字段的是“日期”还有用户本身的“用户名”。既然这两个字段都是如此的重要,我们可以把他们合并起来,建立一个复合索引(compound index)。 
很多人认为只要把任何字段加进聚集索引,就能提高查询速度,也有人感到迷惑:如果把复合的聚集索引字段分开查询,那么查询速度会减慢吗?带着这个问题,我们来看一下以下的查询速度(结果集都是25万条数据):(日期列fariqi首先排在复合聚集索引的起始列,用户名neibuyonghu排在后列) 
我们可以看到如果仅用聚集索引的起始列作为查询条件和同时用到复合聚集索引的全部列的查询速度是几乎一样的,甚至比用上全部的复合索引列还要略快(在查询结果集数目一样的情况下);而如果仅用复合聚集索引的非起始列作为查询条件的话,这个索引是不起任何作用的。当然,语句1、2的查询速度一样是因为查询的条目数一样,如果复合索引的所有列都用上,而且查询结果少的话,这样就会形成“索引覆盖”,因而性能可以达到最优。同时,请记住:无论您是否经常使用聚合索引的其他列,但其前导列一定要是使用最频繁的列。

(三)其他注意事项 
“水可载舟,亦可覆舟”,索引也一样。索引有助于提高检索性能,但过多或不当的索引也会导致系统低效。因为用户在表中每加进一个索引,数据库就要做更多的工作。过多的索引甚至会导致索引碎片。 
所以说,我们要建立一个“适当”的索引体系,特别是对聚合索引的创建,更应精益求精,以使您的数据库能得到高性能的发挥

posted on 2010-07-16 23:49  HackerVirus  阅读(590)  评论(0)    收藏  举报