在编程时,在一些对时间要求比较高的情况,我们希望知道程序的运行需要用多长时间。如何才能获得程序的运行时间呢,下面我们就介绍一种方法。
这种方法基于gettimeofday()函数来实现,我们先来看一下代码:
#include<stdio.h>
#include<sys/time.h>
void delay()
{
for(unsigned long i=0;i<0x0fffffff;i++);
}
int main()
{
struct timeval time_a;
struct timeval time_b;
unsigned long time_delay;
gettimeofday(&time_a, NULL);
delay();
gettimeofday(&time_b, NULL);
time_delay = 1000000 * (time_b.tv_sec - time_a.tv_sec) + time_b.tv_usec - time_a.tv_usec;
printf("Run time = %ld us\n", time_delay);
return 0;
}
这段代码的作用是计算delay()函数的执行时间,执行的结果为:
Run time = 479461 us
下面我们就来分析这段代码,首先我们来看一下struct timeval这个结构体的定义,如下
struct timeval
{
__time_t tv_sec;
__suseconds_t tv_usec;
};
这个结构体中有两个元素,分别为代表时间的秒tv_sec和微妙tv_usec。这个结构体采用“秒+微秒”的格式来表示时间。
另外需要分析的是gettimeofday()函数,它的完整定义为:
int gettimeofday(struct timeval*tv,struct timezone *tz )
这个函数的第一个形参是指向timeval结构体的指针,实际上是通过这个指针返回一个timeval格式的时间。这个时间是从1970年0点0分0秒开始计时,经过的秒数和微秒数,并存储到tv指向的结构体。函数的第二个形参用来返回时区信息,由于这个信息我们没有用,所以程序里直接用NULL。函数的返回值为函数执行的结果,成功返回0,失败返回-1。
通过gettimeofday()函数分别获取delay()函数运行前和运行后的时间,计算两个时间点的差就可以计算出delay()函数的执行时间。