关于sqlserver2008数据库调优

最近由于工作需要,对DB进行升级。
需要将sqlserver2000升至sqlserver2008.
先简要说说主要步骤吧:
1,将DB文件,(将sqlserver后缀名为:.MDF,.LDF的作好备份)
2,卸掉sqlserver2000(并没采取在2000基础上进行升级,因为太麻烦了)
3,装sqlserver2008
完成后,将先前备份好的文件copy过去,启动sqlserver2008就开始运行了。
但刚开始的一两天内发现速度好慢,甚至还不如之前的sqlserver2000,经过查看2008的相关配置,发现好多没有配置。原来在2000上设计的索引也全没了。
尝试做了以下几个事情:
1,分别设置2008的服务器内存选项内设置:最小服务器内存及最大服务器内存,并提升sqlserver的优先级
2,设置索引,这个关键需要结果代码来进行,特别是设置聚集索引时。由于在我的程序中按时间来进行查找这样的sql很多,所以聚集索引设置在需要“查找时间的栏位”上。
设置索引特别是聚集索引很重要,设置好了查询速度能呈几何数量级的增长。
====
一、深入浅出理解索引结构

      实际上,您可以把索引理解为一种特殊的目录。微软的SQL SERVER提供了两种索引:聚集索引(clustered index,也称聚类索引、簇集索引)和非聚集索引(nonclustered index,也称非聚类索引、非簇集索引)。下面,我们举例来说明一下聚集索引和非聚集索引的区别:
      其实,我们的汉语字典的正文本身就是一个聚集索引。比如,我们要查“安”字,就会很自然地翻开字典的前几页,因为“安”的拼音是“an”,而按照拼音排序汉字的字典是以英文字母“a”开头并以“z”结尾的,那么“安”字就自然地排在字典的前部。如果您翻完了所有以“a”开头的部分仍然找不到这个字,那么就说明您的字典中没有这个字;同样的,如果查“张”字,那您也会将您的字典翻到最后部分,因为“张”的拼音是“zhang”。也就是说,字典的正文部分本身就是一个目录,您不需要再去查其他目录来找到您需要找的内容。我们把这种正文内容本身就是一种按照一定规则排列的目录称为“聚集索引”。
      如果您认识某个字,您可以快速地从自动中查到这个字。但您也可能会遇到您不认识的字,不知道它的发音,这时候,您就不能按照刚才的方法找到您要查的字,而需要去根据“偏旁部首”查到您要找的字,然后根据这个字后的页码直接翻到某页来找到您要找的字。但您结合“部首目录”和“检字表”而查到的字的排序并不是真正的正文的排序方法,比如您查“张”字,我们可以看到在查部首之后的检字表中“张”的页码是672页,检字表中“张”的上面是“驰”字,但页码却是63页,“张”的下面是“弩”字,页面是390页。很显然,这些字并不是真正的分别位于“张”字的上下方,现在您看到的连续的“驰、张、弩”三字实际上就是他们在非聚集索引中的排序,是字典正文中的字在非聚集索引中的映射。我们可以通过这种方式来找到您所需要的字,但它需要两个过程,先找到目录中的结果,然后再翻到您所需要的页码。我们把这种目录纯粹是目录,正文纯粹是正文的排序方式称为“非聚集索引”。
      通过以上例子,我们可以理解到什么是“聚集索引”和“非聚集索引”。进一步引申一下,我们可以很容易的理解:每个表只能有一个聚集索引,因为目录只能按照一种方法进行排序。

    二、何时使用聚集索引或非聚集索引

下面的表总结了何时使用聚集索引或非聚集索引(很重要):

动作描述 使用聚集索引 使用非聚集索引
列经常被分组排序 应 应
返回某范围内的数据 应 不应
一个或极少不同值 不应 不应
小数目的不同值 应 不应
大数目的不同值 不应 应
频繁更新的列 不应 应
外键列 应 应
主键列 应 应
频繁修改索引列 不应 应


      事实上,我们可以通过前面聚集索引和非聚集索引的定义的例子来理解上表。如:返回某范围内的数据一项。比如您的某个表有一个时间列,恰好您把聚合索引建立在了该列,这时您查询2004年1月1日至2004年10月1日之间的全部数据时,这个速度就将是很快的,因为您的这本字典正文是按日期进行排序的,聚类索引只需要找到要检索的所有数据中的开头和结尾数据即可;而不像非聚集索引,必须先查到目录中查到每一项数据对应的页码,然后再根据页码查到具体内容。
====
3,设计好了索引之后,我又仔细地查看大表中的数据,发现有几个常用表中的数据都超过300万了,而且这些数据全都是经过当天处理好后都很少或者说几不再处理的数据,于是对这些数据进行备份。具体说是:按表中时间如“2012-01”的数据备份到一个专门的表中,然后删掉表中已备份的数据。经过数据备份之后,此表数据不到20万了。
此时,再来看应用服务器处理情况,发现(没做以上三个步骤)之前需要7s甚至>12s才能处理完的一条数据,现在只需要200毫秒左右就可以了,速度大副度提升。
从2.3——2.8号五个线程跑了将近七天没跑完的数据(1,2号也在8号当天下午才跑完),第二天(2.9号上午10:00左右)我上班时全部跑完了(8号下午3点左右的不到两个小时内跑完了7000多条数据)。
第一阶段调优成功,数据库优化崭告一段落。



猜你喜欢

转载自hunter090730.iteye.com/blog/1399338