java : 算法训练 二进制数数

问题描述
  给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
  如5的二进制为101,包含2个“1”。
输入格式
  第一行包含2个数L,R
输出格式
  一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
  L<=R<=100000;

import java.util.Scanner;
public class 二进制数数 {
	public static void main(String[] args) {
		Scanner ab=new Scanner(System.in);
		int a =ab.nextInt();
		int b=ab.nextInt();
		int count=0;
		for (int i = a; i <=b; i++) {
			int aa=i;
			while(aa!=0){	
				int c=aa%2;
				if (c==1) {
					count++;
				}
				aa/=2;
			}
		}
		System.out.println(count);
	}
}

发布了23 篇原创文章 · 获赞 0 · 访问量 416

猜你喜欢

转载自blog.csdn.net/ThoughtsofXin/article/details/104301090