java,js中小数计算精度误差问题

  在碰见这个问题之前我完全没有这个概念,碰见了特此记录;

  项目js里面中用到了number*0.2(其中number是一个整数,我测试的时候是259),得到的结果却是51.80000000000000004这么个结果,

  当时直接蒙逼,根本不知道什么原因,随手在java中写了一个System.out.println(259*0.2),得到一样的结果;

    这个时候觉得就不是数据类型的问题了,上网围观大神给出的原因

---------------------------------------------------------------------------------------------------------------------------------------------------

  网上有这样一个问题:0.1+0.2在计算机中的结果

  不论java,javascript,python中的结果都是0.30000000000000004

  大神给出的原因(转载:http://blog.csdn.net/zcczcw/article/details/7362473):

计算机中存储的都是二进制的0和1,而我们现实中的数存入计算机中转换为二进制时有可能不能整除,
也就是不能正好整除,所以用二进制表示现实中的数并计算就产生了误差。

  把十进制的0.1和0.2转换为二进制:

0.1 => 0.0001 1001 1001 1001…(1001无限循环)
0.2 => 0.0011 0011 0011 0011…(0011无限循环)

但是我们计算机的硬件存储的位数是有限制的不可能无限循环下去,一般双精度浮点数总共占用64位,、
其中最多53位为有效精度数字(包括符号位),所以存储时:

0.1=>0.0001 1001 1001 1001 1001 1001 1001 1001 1001 1001 1001 1001 1001

0.2=>0.0011 0011 0011 0011 0011 0011 0011 0011 0011 0011 0011 0011 0011

0.1+0.2=>0.0100 1100 1100 1100 1100 1100 11001 100 1100 1100 1100 1100 1100

转换为十进制就是:0.30000000000000004

  

  

posted @ 2018-03-02 17:15  Nan丶G  阅读(1183)  评论(0编辑  收藏  举报