如何计算一段程序的执行时间

      在编程时,在一些对时间要求比较高的情况,我们希望知道程序的运行需要用多长时间。如何才能获得程序的运行时间呢,下面我们就介绍一种方法。

     这种方法基于gettimeofday()函数来实现,我们先来看一下代码:

#include<stdio.h>
#include<sys/time.h>

void delay()
{
	for(unsigned long i=0;i<0x0fffffff;i++);
}

int main()
{
	struct timeval time_a;
	struct timeval time_b;
	unsigned long time_delay;

	gettimeofday(&time_a, NULL);
	delay();
	gettimeofday(&time_b, NULL);
	
	time_delay = 1000000 * (time_b.tv_sec - time_a.tv_sec) + time_b.tv_usec - time_a.tv_usec;
	printf("Run time = %ld us\n", time_delay);
	return 0;
}

这段代码的作用是计算delay()函数的执行时间,执行的结果为:

Run time = 479461 us

下面我们就来分析这段代码,首先我们来看一下struct timeval这个结构体的定义,如下

struct timeval

{

    __time_t tv_sec;        

    __suseconds_t tv_usec;  

};

这个结构体中有两个元素,分别为代表时间的秒tv_sec和微妙tv_usec。这个结构体采用“秒+微秒”的格式来表示时间。

另外需要分析的是gettimeofday()函数,它的完整定义为:

int gettimeofday(struct  timeval*tv,struct  timezone *tz )

这个函数的第一个形参是指向timeval结构体的指针,实际上是通过这个指针返回一个timeval格式的时间。这个时间是从1970年0点0分0秒开始计时,经过的秒数和微秒数,并存储到tv指向的结构体。函数的第二个形参用来返回时区信息,由于这个信息我们没有用,所以程序里直接用NULL。函数的返回值为函数执行的结果,成功返回0,失败返回-1。

      通过gettimeofday()函数分别获取delay()函数运行前和运行后的时间,计算两个时间点的差就可以计算出delay()函数的执行时间。

发布了12 篇原创文章 · 获赞 3 · 访问量 9855

猜你喜欢

转载自blog.csdn.net/bhniunan/article/details/104042309