如何解决CString.Format以相同的精度产生不同的值
很抱歉,可能是愚蠢的问题,因为我是C#开发人员,所以我很难找到一些想法。
我们正在进行从VC ++ 2013到VC ++ 2019的迁移。我们有2个安装了VC ++ 2013和VC ++ 2019的类似VM。项目已经在使用VC ++ 2019。在2个VM上运行时,简单评估的结果不同:
CString Value;
int precision = 8;
double number = 50.634765625;
String^ RetValue;
Value.Format(_T("%.*f"),precision,number);
RetValue = gcnew String(Value.GetString());
在一个VM(Win 7 64bit)上,我们具有RetValue“ 50.63476563”;在另一个VM(win10 64bit)上,我们具有RetValue-“ 50.63476562”我期望的所有工具都是相同的(很难说100%,因为已经安装了很多工具,但是最重要的c ++是)。
在VS2013下转换和运行项目时,两个VM上的结果相同-“ 50.63476563”。
是否有任何控制格式的选项设置?还是为什么在选择一个VM截断的情况下选择四舍五入呢?
更新 因此问题确实与VS2013 / VS2019的差异有关。我发现了为什么我们在使用相同VS2019的2个VM上有不同的结果。所以:
- VS2013舍入为50.634765625 == VS 2019舍入为四舍五入
- VS2013舍入为50.634765625!= VS 2019舍入为Debug
取整方向都最接近。因此,MSFT在Release / Debug中对最近的解释不同。 C ++编译器选项使/ MD与/ MDd有所不同。
除了切换到/ MD强制在调试中整个项目使用旧方法外,找不到其他方法。
解决方法
我们在2013年和2017年的测试中发现了差异。我们看到了将数字.249500转换为三位数的差异。 2013 = 0.250,而2017 = 0.249。考虑以下示例:
#include <stdio.h>
// little endian bytes,to avoid parsing differences between both compilers
unsigned char bytesOfDouble[] = {0x56,0x0E,0x2D,0xB2,0x9D,0xEF,0xCF,0x3F};
double& dVal = reinterpret_cast<double&>(bytesOfDouble);
void PrintDouble(const double& d)
{
printf("printf (%%.3f): %.3f\n",d);
printf("printf (%%.3g): %.3g\n",d);
printf("printf (%%f) : %f\n",d);
printf("printf (%%g) : %g\n",d);
}
int main(int argc,char** argv)
{
PrintDouble(dVal);
return 0;
}
如果使用VS2013和VS2017进行编译,则会得到不同的结果。如果尝试使用g ++或clang,将获得与VS2017相同的结果。
如何在两者之间获得相同的结果? IDK ...我认为MS肯定改变了其底层C运行时。
,因此,在我看来,这似乎是Microsoft在Windows 10 SDK(10.0.19041.1)中引入的错误。 现在将使用一些解决方法。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。