Linux 中的计时
·Linux 中的计时
转自:http://www.ibm.com/developerworks/cn/linux/l-time/index.html
简介: 本文描述了Linux系统中一些与计时相关的问题和解决方法。因为在学习和研究的过程中我们经常需要统计程序或程序段的耗时,评估它们的性能好坏。因而这些问题对于我们来说,经常会遇到。掌握多种计时方法对于开发人员或科研工作者来说都是必须掌握的一项技能。本文解决了在Linux计时当中经常会遇到的一些技术问题,相信会对他人的工作有所帮助。
发布日期: 2003 年 10 月 01 日
实际上,可能还会有其它一些方法可以完成本文讨论的任务。我仅讨论了我所使用的方法,这并不意味着除此之外的其它方法就很差劲,只不过对我来说这些方法相对简单有效而已。
Linux中的时间
在Linux系统中,时间扮演着一个非常重要的角色,它几乎无处不在。开机时,会显示如下的信息:
Last login: Tue Sep 23 22:12:50 from 192.168.6.100 |
关机时,我们可以使用shutdown命令指定何时或多长时间后机器将会定时关闭。我们有可能还会设置一台Linux时间服务器与互联网上的一级或二级时间服务器同步,总之,在Linux系统中,我们必须要了解时间。
实际上,linux系统有着自己的计时器时钟。可以实验一下,分别执行date和/sbin/clock(或sbin/hwclock)命令,得到的时间是不同的。
[grandiose@Bygone grandiose]$ date Sun Sep 28 21:11:02 EDT 2003 [grandiose@Bygone grandiose]$ /sbin/clock Sun 28 Sep 2003 09:07:07 PM EDT -0.466994 seconds |
当你以 root 身份改变了系统时间之后,请记住以 clock -w 来将系统时间写入 CMOS 中。
使用C语言进行计时
在用户空间中可以使用C语言函数gettimeofday 得到时间,它的调用格式是:
#include <sys/time.h>
int gettimeofday(struct timeval *tv, struct timezone *tz);
int settimeofday(const struct timeval *tv , const struct timezone *tz);
结构timeval的定义为:
strut timeval {
long tv_sec; /* 秒数 */
long tv_usec; /* 微秒数 */
};
|
可以看出,使用这种方式计时,精度可达微秒,也就是10-6秒。进行计时的时候,我们需要前后调用两次gettimeofday,然后计算中间的差值:
gettimeofday( &start, NULL ); foo(); gettimeofday( &end, NULL ); timeuse = 1000000 * ( end.tv_sec - start.tv_sec ) + end.tv_usec - start.tv_usec; timeuse /= 1000000; |
Shell计时
在Linux的Shell下,我们经常也使用Shell内置的time命令和GNU版的time命令来测试程序运行的时间。
内置的time提供的参数选项比较少,而GNU的time则提供了丰富的参数选项,包括指定输出文件等功能。
[grandiose@Bygone grandiose]$ /usr/bin/time --output=foo.txt foo |
上句只有时间信息输出到了foo.txt文件中,如果想要包括foo执行的结果,就需要按下句这样使用:
[grandiose@Bygone grandiose]$ /usr/bin/time --output=foo.txt --append foo >foo.txt |
如果想要控制输出时间的格式,可以使用-f开关进行格式化:
[grandiose@Bygone grandiose]$ /usr/bin/time --output=foo.txt -f "\\t%E real,\\t%U user,\\t%S sys" foo |
如果仍需要使用Shell内置的time命令,可以用下面一句将结果输出至文件:
[grandiose@Bygone grandiose]$ (time foo) 2>foo.txt |
这样写是因为内置命令time的输出是到标准错误的,文件描述符2表示标准错误stderr。如果还想要包括foo执行的结果,就要这样:
[grandiose@Bygone grandiose]$ (time foo) >foo.txt 2>&1 |
其中2>&1的含义是2与1 相同,一起送入foo.txt中。
nohup命令可以保证进程在退出系统之后仍能运行,这是它的常规用法。我们也可以这样使用nohup:
[grandiose@Bygone grandiose]$ nohup time foo |
结果全部输出至nohup.out,也包括程序运行的时间信息。可以使用下面的语句将时间信息输出至文件foo.txt中。
[grandiose@Bygone grandiose]$ tail -2 nohup.out > foo.txt |
为了保证和POSIX一致,输出的时间格式为(nohup.out中的内容除外):
real 0m0.007s user 0m0.002s sys 0m0.004s |
我们可以使用linux下面一些过滤命令如awk、sed、grep、tr等过滤出我们想要得到的内容,例如想要得到real段对应的时间:
[grandiose@Bygone grandiose]$ grep real foo.txt | cut -f2,或者 [grandiose@Bygone grandiose]$ sed -n '2p' foo.txt | cut -f2 |
在Shell下,输出的时间精度为毫秒级,如果需要微秒级的计时,那就应该在程序中进行处理。
如果要定制自己的设备驱动程序,可能就会用到内核里的计时功能。Linux内核空间中的计时与用户空间的计时不太相同。在内核空间里,有一个全局变量Jiffies维护着当前的时间。与系统时钟有关的调用有(新的定时服务):
#include <asm/param.h> #include <linux/timer.h> void add_timer(struct timer_list * timer); int del_timer(struct timer_list * timer); inline void init_timer(struct timer_list * timer); |
结构struct timer_list的定义为:
struct timer_list {
struct timer_list *next;
struct timer_list *prev;
unsigned long expires;
unsigned long data;
void (*function)(unsigned long d);
};
|
其中过期时间expires是要执行function的时间。一般在调用add_timer时jiffies = jiffies + num,表示在num个系统最小时间间隔后执行function。系统最小时间间隔与所用的硬件平台有关, 在核心里定义了常数HZ表示一秒内最小时间间隔的数目,则num*HZ表示num 秒。系统计时到预定时间就调用function,并把此子程序从定时队列里删除, 因此如果想要每隔一定时间间隔执行一次的话,就必须在function里再一次调用add_timer。function的参数d即为timer里面的data项。
Jiffies的计时精度是百分之一秒,如果在内核中需要更为精确的计时,就需要用到time_calls.h中的函数,它们可用于高精度的时间计算。
补充
有的时候,我们需要较为精确地得出被测目标的运行时间,这时一般需要多次运行取均值以消除误差。
gettimeofday( &start, NULL ); for ( int i = 0; i< 10; i++ ) foo(); gettimeofday( &end, NULL ); timeuse = 1000000 * ( end.tv_sec - start.tv_sec ) + end.tv_usec - start.tv_usec; timeuse /= 10000000; |
上面的统计实际也引入了新的误差,当循环指令的执行时间与foo()相比可忽略的话,这种计时才是可以接受的;否则我们就要除去循环指令的执行时间,才会得到正确的统计计时。
在Linux Shell下,如果统计次数较少,则可以:
for i in 1 2 3 4 5 6 7 8 9 10 do (time foo) 2>foo.tmp grep real foo.tmp | cut -f2 >> foo.txt done |
如果计时次数较多,则需要:
i=1 while [ $i -le 100 ] do (time foo) 2>foo.tmp grep real foo.tmp | cut -f2 >> foo.txt i=`expr $i + 1` done |
写进foo.txt的内容如果手动来计算平均值,会比较费时,我们可以写一段Shell脚本或用C语言来读取文件,计算其均值。
/*耗时中分部总和*/ cut -d'm' -f1 foo.txt > foo.tmp sum=0 while read line do sum=$(echo "$sum+$line" | bc -l) done < foo.tmp echo $sum /*耗时中秒部总和*/ cut -d'm' -f2 foo.txt | tr -d 's'> foo.tmp sum=0 while read line do sum=$(echo "$sum+$line" | bc -l) done < foo.tmp echo $sum |
计算出分部与秒部总和之后,然后再手动计算平均值,这样要容易得多。注意,上面没有使用expr进行计算的原因,是因为expr只能支持整型值。在Linux shell下,如果要计算浮点数,就需要使用bc或者是gexpr。
结束语
实际上,我们还可以使用诸如Perl、Python等多种语言在Linux系统中进行计时。选择何种工具或语言进行计时,这与被测程序或程序段的类型以及它们的编写语言相关。综合考虑精度、运行时间、运行次数等要求,才能合理可靠地得出程序的运行时间。
参考资料
- 请阅读 RunTime:High-performance programming techniques on Linux and Windows 2000,里面有关于Linux和Windows平台下计时性能开销的一些讨论。
- 请参阅网站 中文Linux知识库。
- 有关gexpr的信息,请参阅网站 Gexpr。
- Matt Welsh & Lar Kaufman,Running Linux,USA:O'Reilly & Associates,1995
- 在 developerWorks Linux 专区中寻找更多 用于 Linux 开发人员的参考资料。
- linux中的man page也是重要的信息来源。
车皓阳是中科院软件所的一名博士生,关注于电信网管理、信任管理等领域,对Linux以及开源系统充满热情。您可以通过grandiose11@msn.com与其联系,欢迎讨论相关问题。
联系方式:中科院计算所973办公室 邮编:100080 电话:010-82626028
·Linux下计算程序运行时间的两种方法:
转自:http://www.chineselinuxuniversity.net/articles/1752.shtml
有时候我们要计算程序执行的时间.比如我们要对算法进行时间分析
..这个时候可以使用下面这个函数:
<ccid_code>#include <sys/time.h>
int gettimeofday(struct timeval *tv,struct timezone *tz);
strut timeval {
long tv_sec; /* 秒数 */
long tv_usec; /* 微秒数 */
};
gettimeofday将时间保存在结构tv之中.tz一般我们使用NULL来代替.
#include <sys/time.h<
#include <stdio.h<
#include <math.h<
void function()
{
unsigned int i,j;
double y;
for(i=0;i<1000;i++)
for(j=0;j<1000;j++)
y=sin((double)i);
}
main()
{
struct timeval tpstart,tpend;
float timeuse;
gettimeofday(&tpstart,NULL);
function();
gettimeofday(&tpend,NULL);
timeuse=1000000*(tpend.tv_sec-tpstart.tv_sec)+
tpend.tv_usec-tpstart.tv_usec;
timeuse/=1000000;
printf("Used Time:%f\n",timeuse);
exit(0);
}
|
这个程序输出函数的执行时间,我们可以使用这个来进行系统性能的测试,或者是函数算
法的效率分析.在我机器上的一个输出结果是: Used Time:0.556070
2.第二种是我自己经常用的,就是:
在执行程序前,加time,如:输入time./abc
·函数段测试时间方法及比较
作者:Peter 2011.4.7
转自:http://wenku.baidu.com/view/0e1c6afdf705cc17552709ca.html
一.用四种函数测量同一程序所需时间
1.函数段的测试有4中方法,分别是clock,times,gettimeofday,getrusage来实现的。
2.四种函数的精度如下:
clock()函数的精确度是10毫秒(ms);
times()函数的精确度是10毫秒(ms);
gettimofday()函数的精确度是微秒(μs);
getrusage()函数的精确度是纳秒(ns)。
===============================================================
3.编写test5.c程序,测试1024*1024矩阵运行的时间,比较四种函数测量相同函数段所需的时间。
测试程序如下:
=======================/*调用所需的头文件*/=======================
#include <sys/time.h>
#include <sys/resource.h>
#include <unistd.h>
#include <stdio.h>
#include <time.h>
=================/*定义宏变量:所需的4中测试方法*/=================
#define TEST_BY_CLOCK (char)(0x00) //CLOCK测试
#define TEST_BY_TIMES (char)(0x01) //TIME测试
#define TEST_BY_GETTIMEOFDAY (char)(0x02) //GETTIMEOFDAY测试
#define TEST_BY_GETRUSAGE (char)(0x03) //GETRUSAGE测试
#define TEST_METHOD (TEST_BY_CLOCK) //选择需要的测试方法
====================== /*矩阵格式定义*/========================
#define COORDINATION_X (int)(1024)
#define COORDINATION_Y (int)(1024)
static int g_Matrix[COORDINATION_X][COORDINATION_Y];
=============/*geTimeval类型及gettimeofday和getrusage计算方法*/==========
double getTimeval()
{
struct rusage stRusage;
struct timeval stTimeval;
if (TEST_METHOD == TEST_BY_GETTIMEOFDAY) {
gettimeofday(&stTimeval, NULL);
} else if (TEST_METHOD == TEST_BY_GETRUSAGE) {
getrusage(RUSAGE_SELF, &stRusage);
stTimeval = stRusage.ru_utime;
}
return stTimeval.tv_sec + (double)stTimeval.tv_usec*1E-6;
}
=======================/*主函数程序如下*/===========================
int main(){
int i, j;
int n = 0;
clock_t clockT1, clockT2; //时钟的 clockT1, clockT2分别计时所要测的程序开始和结束
double doubleT1, doubleT2; // doubleT1, doubleT2 分别计时所要测的程序开始和结束
===============/*利用各种METHOD对测试程序进行开始取值*/===============
if (TEST_METHOD == TEST_BY_CLOCK) {
clockT1 = clock();
} else if (TEST_METHOD == TEST_BY_TIMES) {
times(&clockT1);
} else if (TEST_METHOD == TEST_BY_GETTIMEOFDAY) {
doubleT1 = getTimeval();
} else if (TEST_METHOD == TEST_BY_GETRUSAGE) {
doubleT1 = getTimeval();
}
========================/*矩阵的算法*/=============================
for (i = 0; i < COORDINATION_X; i++) {
for (j = 0; j < COORDINATION_Y; j++) {
g_Matrix[i][j] = i * j;
}
}
=========/*利用各种METHOD对测试程序进行结束取值,并打出相应的提示*/=======
if (TEST_METHOD == TEST_BY_CLOCK) {
clockT2 = clock();
printf("Time result tested by clock = %10.30f\n",
(double)(clockT2 - clockT1)/CLOCKS_PER_SEC);
} else if (TEST_METHOD == TEST_BY_TIMES) {
times(&clockT2);
printf("Time result tested by times = %10.30f\n",
(double)(clockT1 - clockT2)/sysconf(_SC_CLK_TCK));
} else if (TEST_METHOD == TEST_BY_GETTIMEOFDAY) {
doubleT2 = getTimeval();
printf("Time result tested by gettimeofday = %10.30f\n",
(double)(doubleT2 - doubleT1));
} else if (TEST_METHOD == TEST_BY_GETRUSAGE) {
doubleT2 = getTimeval();
printf("Time result tested by getrusage = %10.70f\n",
(double)(doubleT2 - doubleT1));
}
return 0;
}
========================/*程序结束*/=============================
调试命令:
$ gcc test5.c –o test5
$ ./test5
4.测试结果数据图

5.各种测试方法的注意点
1)使用times的方法:
times的用法基本和clock类似,同样是取得CPU时间片的数量,所不同的是要除以的时间单位值为sysconf(_SC_CLK_TCK)(=1000000)。
2)使用gettimeofday的方法:
用gettimeofday直接提取硬件时钟进行运算,得到的结果的精度相比前两种方法提高了很多。
但是也正由于它提取硬件时钟的原因,这个方法只能计算程序开始时间和结束时间的差值。而此时系统中如果在运行其他的后台程序,可能会影响到最终结果的值。如果后台繁忙,系统dispatch过多的话,并不能完全真实反映被测量函数的运行时间。
3)使用getrusage的方法:
getrusage得到的是程序对系统资源的占用信息。只要指定RUSAGE_SELF,就可以得到程序本身运行所占用的系统时间。可以说是精度最高的测量方法了。
试用了这四种方法,感觉需要高精度测试的话,getrusage和gettimeofday都可以选择。需要长时间测试的话,clock也是不错的,尤其是考虑到它的通用性。
二.通过上述比较采用gettimeofday来进行程序段所消耗时间的具体测
编辑调试程序test.c(命令:$ gedit test.c),内容如下:
#include <sys/time.h>
#include <stdio.h>
#include <unistd.h>
int main()
{
long i=1000L;
struct timeval tvs,tve;
gettimeofday(&tvs,NULL);
======/*下面的放入所要测试的程序,例如:简单的Hello World程序*/=========
int main(int argc,char**argv)
{ printf("Hello world!\n");
return 0;
}
=============================================================== gettimeofday(&tve,NULL);
double span = tve.tv_sec-tvs.tv_sec + (tve.tv_usec-tvs.tv_usec)/1000000.0;
printf("time: %.12f\n",span);
return 0;
}
===============================/*程序结束*/=================================
调试命令:
$ gcc test.c –o test
$ ./test.
程序结果图

通过显示的数据,能够满足要求也验证了gettimeofday的精确度为微秒(μs)

浙公网安备 33010602011771号