|
Если ставлю галку использовать 32-битную арифметику - использует ее везде, вне зависимости от типа переменных (float или double). Естественно.
Если ставлю галку использовать 64-битную арифметику - тоже использует ее везде, как бы я не объявлял используемые в расчетах переменные. А вот это неестественно.
Как бы сделать так, чтобы часть вычислений велась с одинарной точностью, а другая часть - с двойной? А то в программе в одних местах очень критично время вычислений (точность не столь важна), а в других - точность.
Объем программы при этом роли не играет.
E-mail: info@telesys.ru