算法训练 二进制数数

问题描述

给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。   
如5的二进制为101,包含2个“1”。

输入格式

第一行包含2个数L,R

输出格式

一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。

样例输入
2 3
样例输出
3
数据规模和约定
  L<=R<=100000;

#include<iostream>

using namespace std;
int number = 0;

void g(int i) {
	int n = 0;
	while (i>0) {
		n = (i % 2);
		if(n==1){
			number++;
		}
		i /= 2; 
	}
}
int main() {
	int L, R;
	cin >> L >> R;
	for (int i = L; i <= R; i++) {
		g(i);
	}
	cout << number;
	return 0;
}

心路历程:这道题目犯了个很低级的值得令人笑话的错误,故写下来以防下次再犯。

错误:在main()函数的return语句中,把返回值写成了1,而不是系统要求的0,真是刷题刷糊涂了。希望下次排除困难时,看见运行错误还能想到这个小细节!!!

发布了33 篇原创文章 · 获赞 0 · 访问量 555

猜你喜欢

转载自blog.csdn.net/enjoy_code_/article/details/104130849