JavaScript中为什么0.1+0.2!=0.3?附解决办法!

在JavaScript中,如果判断0.1 + 0.2 === 0.3,结果是false,就像这样:

console.log(0.1 + 0.2 === 0.3); // false
console.log(0.1 + 0.2); // 0.30000000000000004

这是怎么回事呢?0.1 + 0.2竟然不等于0.3?是程序出问题了吗?

原来JavaScript采用的是IEEE754的64位双精度版本,由三部分组成:

  • 1位数符:标记正负,0为正,1为负
  • 11位阶码:数字的整数部分
  • 52位尾数:数字的小数部分

0.1的二进制表示为:

0.1 = 0.0(0011)(0011)(0011)(0011)(0011)....

是无限循环小数,而在JavaScript中只能存储52位小数,那么0.1的小数位在第52位时就需要判读进位(第53位为1就+1,为0则不进位),则0.1在JavaScript中存储的实际为:

0.1 = 0.0(0011)(0011)...(0011)010

第52位进位了。

同理0.2在JavaScript中存储的为:

0.2 = 0.(0011)(0011)...(0011)

不需要进位。

那么将0.10.2在JavaScript中存储的表示值相加得到:

	0.0001100110011001100110011001100110011001100110011010
+	0.0011001100110011001100110011001100110011001100110011
-----------------------------------------------------------
	0.0100110011001100110011001100110011001100110011001101

0.0100110011001100110011001100110011001100110011001101这个二进制数刚好等于十进制0.30000000000000004

扫描二维码关注公众号,回复: 12821082 查看本文章

这样看来,程序并没有出问题,这是由于浮点数精度问题造成的,不仅是JavaScript,所有采用IEEE754的64位双精度的语言都是如此。

在JavaScript中,可用原生办法解决:

console.log(parseFloat((0.1 + 0.2).toFixed(10)) === 0.3); // true
console.log(parseFloat((0.1 + 0.2).toFixed(10))); // 0.3

猜你喜欢

转载自blog.csdn.net/Jack_lzx/article/details/114731235