四种方法,分别是clock, times, gettimeofday, getrusage。
最常用的方法为gettimeofday()直接提取硬件时钟进行运算,得到的结果的精度较高,但是也正由于它提取硬件时钟的原因,这个方法只能计算程序开始时间和结束时间的差值。而此时系统中如果在运行其他的后台程序,可能会影响到最终结果的值。如果后台繁忙,系统dispatch过多的话,并不能完全真实反映被测量函数的运行时间。
getrusage()用来获取进程的相关资源信息,其中的r是resource。如:用户开销时间,系统开销时间,接收的信号量等等;时间只是其中的一部分,我试了该方法,没有原帖中说的准确,时间甚至会超过gettimeofday计算的时间。
clock()得到的是耗费在本程序上的CPU时间片的数量,也就是Clock Tick的值。该值必须除以CLOCKS_PER_SEC这个宏值,得到时间值。
函数执行时间,一是函数本身的执行时间,另外是在本函数执行过程中,其他的进程或线程抢占了CPU的调度时间,用gettimeofday计算时需要考虑第二种因素。
- #include <sys/time.h>
- #include<stdio.h>
- #include<unistd.h>
-
- main()
- {
- struct timeval tpstart,tpend;
- long long timeuse;
-
- gettimeofday(&tpstart,NULL);
- function(); //测试函数
- gettimeofday(&tpend,NULL);
- timeuse=1000*(tpend.tv_sec-tpstart.tv_sec)+
- (tpend.tv_usec-tpstart.tv_usec)/1000;
- printf("Used Time:%d/n",timeuse);
- exit(0);
- }
说明参考: http://cookiebear.info/archives/351
原文如下:
最近突然有必要测试C语言中各个函数的运行时间,于是就搜索了一下,发现有4种方法可以达成测算程序运行时间的目的。
它们分别是使用clock, times, gettimeofday, getrusage来实现的。下面就来逐一介绍,并比较它们的优劣点。
系统测试环境:
VirtualBox (Ubuntu 9.10)
gcc version 4.4.1
libc6 2.10.1-0ubuntu16
Core Duo T2500 2GMHz
首先先贴出我测试用的程序吧。
程序做的处理很简单,就是填写一个1024*1024的矩阵。
只要修改第11行的定义值,就可以使用不同的测量方法了。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
|
#include <sys/time.h>
#include <sys/resource.h>
#include <unistd.h>
#include <stdio.h>
#include <time.h>
#define TEST_BY_CLOCK (char)(0x00)
#define TEST_BY_TIMES (char)(0x01)
#define TEST_BY_GETTIMEOFDAY (char)(0x02)
#define TEST_BY_GETRUSAGE (char)(0x03)
#define TEST_METHOD (TEST_BY_GETTIMEOFDAY)
#define COORDINATION_X (int)(1024)
#define COORDINATION_Y (int)(1024)
static
int
g_Matrix[COORDINATION_X][COORDINATION_Y];
double
getTimeval()
{
struct
rusage stRusage;
struct
timeval stTimeval;
if
(TEST_METHOD == TEST_BY_GETTIMEOFDAY) {
gettimeofday(&stTimeval, NULL);
}
else
if
(TEST_METHOD == TEST_BY_GETRUSAGE) {
getrusage(RUSAGE_SELF, &stRusage);
stTimeval = stRusage.ru_utime;
}
return
stTimeval.tv_sec + (
double
)stTimeval.tv_usec*1E-6;
}
int
main()
{
int
i, j;
int
n = 0;
clock_t
clockT1, clockT2;
double
doubleT1, doubleT2;
if
(TEST_METHOD == TEST_BY_CLOCK) {
clockT1 =
clock
();
}
else
if
(TEST_METHOD == TEST_BY_TIMES) {
times(&clockT1);
}
else
if
(TEST_METHOD == TEST_BY_GETTIMEOFDAY) {
doubleT1 = getTimeval();
}
else
if
(TEST_METHOD == TEST_BY_GETRUSAGE) {
doubleT1 = getTimeval();
}
for
(i = 0; i < COORDINATION_X; i++) {
for
(j = 0; j < COORDINATION_Y; j++) {
g_Matrix[i][j] = i * j;
}
}
if
(TEST_METHOD == TEST_BY_CLOCK) {
clockT2 =
clock
();
printf
(
"Time result tested by clock = %10.30f\n"
,
(
double
)(clockT2 - clockT1)/CLOCKS_PER_SEC);
}
else
if
(TEST_METHOD == TEST_BY_TIMES) {
times(&clockT2);
printf
(
"Time result tested by times = %10.30f\n"
,
(
double
)(clockT2 - clockT1)/sysconf(_SC_CLK_TCK));
}
else
if
(TEST_METHOD == TEST_BY_GETTIMEOFDAY) {
doubleT2 = getTimeval();
printf
(
"Time result tested by gettimeofday = %10.30f\n"
,
(
double
)(doubleT2 - doubleT1));
}
else
if
(TEST_METHOD == TEST_BY_GETRUSAGE) {
doubleT2 = getTimeval();
printf
(
"Time result tested by getrusage = %10.70f\n"
,
(
double
)(doubleT2 - doubleT1));
}
return
0;
}
|
使用clock的方法:
clock是ANSI C的标准库函数,关于这个函数需要说明几点。
首先,它返回的是CPU耗费在本程序上的时间。也就是说,途中sleep的话,由于CPU资源被释放,那段时间将不被计算在内。
其次,得到的返回值其实就是耗费在本程序上的CPU时间片的数量,也就是Clock Tick的值。该值必须除以CLOCKS_PER_SEC这个宏值,才能最后得到ss.mmnn格式的运行时间。在POSIX兼容系统中,CLOCKS_PER_SEC的值为1,000,000的,也就是1MHz。
最后,使用这个函数能达到的精度大约为10ms。
使用times的方法:
times的用法基本和clock类似,同样是取得CPU时间片的数量,所不同的是要除以的时间单位值为sysconf(_SC_CLK_TCK)。
使用gettimeofday的方法:
用gettimeofday直接提取硬件时钟进行运算,得到的结果的精度相比前两种方法提高了很多。
但是也正由于它提取硬件时钟的原因,这个方法只能计算程序开始时间和结束时间的差值。而此时系统中如果在运行其他的后台程序,可能会影响到最终结果的值。如果后台繁忙,系统dispatch过多的话,并不能完全真实反映被测量函数的运行时间。
使用getrusage的方法:
getrusage得到的是程序对系统资源的占用信息。只要指定了RUSAGE_SELF,就可以得到程序本身运行所占用的系统时间。
可以说是精度最高的测量方法了。
自己试用了这四种方法,感觉需要高精度测试的话,getrusage和gettimeofday都可以选择。需要长时间测试的话,clock也是不错的,尤其是考虑到它的通用性。