试题 算法训练 二进制数数

思路:先将十进制数转成二进制,然后计算区间内每个二进制数的1的个数相加即可。

问题描述
  给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
  如5的二进制为101,包含2个“1”。
输入格式
  第一行包含2个数L,R
输出格式
  一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
  L<=R<=100000;

inlist = list(map(int,input().split()))
start = inlist[0]
end = inlist[1]
s = 0
for i in range(start,end+1):
    # [L,R]区间内的所有数在二进制下包含的“1”的个数之和。
    x = str(bin(i)[2:])
    s += x.count('1')
print(s)
发布了81 篇原创文章 · 获赞 10 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/Python_Matlab/article/details/104758454