首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >对大X值不正确的枕curve_fit

对大X值不正确的枕curve_fit
EN

Stack Overflow用户
提问于 2022-09-22 12:08:51
回答 2查看 96关注 0票数 1

为了确定一段时间的趋势,我使用scipy curve_fit和来自time.time()的X值,例如1663847528.7147126 (16亿)。做线性插值有时会产生错误的结果,并且提供近似的初始p0值也没有帮助。我发现X的大小是造成这个错误的关键因素,我想知道为什么?

下面是一个简单的片段,它显示了工作和不工作的X偏移量:

代码语言:javascript
运行
复制
import scipy.optimize

def fit_func(x, a, b):
    return a + b * x

y = list(range(5))

x = [1e8 + a for a in range(5)]
print(scipy.optimize.curve_fit(fit_func, x, y, p0=[-x[0], 0]))
# Result is correct:
#   (array([-1.e+08,  1.e+00]), array([[ 0., -0.],
#          [-0.,  0.]]))

x = [1e9 + a for a in range(5)]
print(scipy.optimize.curve_fit(fit_func, x, y, p0=[-x[0], 0.0]))
# Result is not correct:
#   OptimizeWarning: Covariance of the parameters could not be estimated
#   warnings.warn('Covariance of the parameters could not be estimated',
#   (array([-4.53788811e+08,  4.53788812e-01]), array([[inf, inf],
#          [inf, inf]]))

Almost perfect p0 for b removes the warning but still curve_fit doesn't work
print(scipy.optimize.curve_fit(fit_func, x, y, p0=[-x[0], 0.99]))
# Result is not correct:
#   (array([-7.60846335e+10,  7.60846334e+01]), array([[-1.97051972e+19,  1.97051970e+10],
#          [ 1.97051970e+10, -1.97051968e+01]]))
   
# ...but perfect p0 works
print(scipy.optimize.curve_fit(fit_func, x, y, p0=[-x[0], 1.0]))
#(array([-1.e+09,  1.e+00]), array([[inf, inf],
#       [inf, inf]]))

作为一个附带的问题,也许有一个更有效的方法来进行线性拟合?不过,有时我想要找到二阶多项式拟合。

在Windows10下用Python3.9.6和SciPy 1.7.1进行了测试。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2022-09-22 15:26:10

根本原因

你面临着两个问题:

  • 拟合过程对尺度敏感。它指的是在一个特定变量上选择的单位(例如。A(而不是kA)可以人为地阻止算法正确收敛(例如。一个变量比另一个变量大几个数量级,是回归的主导变量);
  • 浮点算术误差当从1e8切换到1e9时,当这种错误变得突出时,就会达到这个程度。

第二个目标是非常重要的。假设您被限制为8个有效数字表示,那么1 000 000 0001 000 000 001是相同的数字,因为它们都被限制在本文的1.0000000e9中,而且我们不能准确地表示需要多一个数字(_)的1.0000000_e9。这就是为什么第二个例子失败的原因。

此外,您正在使用非线性最小二乘算法来解决线性最小二乘问题,这也与您的问题有某种关系。

你有三个解决方案:

  • 正常化;
  • 规范和改变方法/算法;
  • 提高机器精度。

我将选择第一个,因为它更通用,第二个是由@blunova提出的,完全有意义,后者可能是一个固有的限制。

归一化

为了缓解这两个问题,一个共同的解决方案是正常化。在您的例子中,一个简单的标准化就足够了:

代码语言:javascript
运行
复制
import numpy as np
import scipy.optimize

y = np.arange(5)
x = 1e9 + y

def fit_func(x, a, b):
    return a + b * x

xm = np.mean(x)         # 1000000002.0
xs = np.std(x)          # 1.4142135623730951

result = scipy.optimize.curve_fit(fit_func, (x - xm)/xs, y)

# (array([2.        , 1.41421356]),
# array([[0., 0.],
#        [0., 0.]]))

# Back transformation:
a = result[0][1]/xs                    # 1.0
b = result[0][0] - xm*result[0][1]/xs  # -1000000000.0

或者使用sklearn接口获得相同的结果:

代码语言:javascript
运行
复制
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler, MinMaxScaler
from sklearn.linear_model import LinearRegression

pipe = Pipeline([
    ("scaler", StandardScaler()),
    ("regressor", LinearRegression())
])

pipe.fit(x.reshape(-1, 1), y)

pipe.named_steps["scaler"].mean_          # array([1.e+09])
pipe.named_steps["scaler"].scale_         # array([1.41421356])
pipe.named_steps["regressor"].coef_       # array([1.41421356])
pipe.named_steps["regressor"].intercept_  # 2.0

反变换

实际上,当对拟合结果进行规范化处理时,可以用归一化变量来表示。要获得所需的拟合参数,只需做一些数学运算,就可以将回归的参数转换为原始的变量尺度。

只需写下并解决转换:

代码语言:javascript
运行
复制
 y = x'*a' + b'
x' = (x - m)/s
 y = x*a + b

它给出了以下解决方案:

代码语言:javascript
运行
复制
a = a'/s
b = b' - m/s*a'

精密增编

Numpy默认浮动精度与您预期的一样是float64,大约有15个有效位数:

代码语言:javascript
运行
复制
x.dtype                            # dtype('float64')
np.finfo(np.float64).precision     # 15

但是scipy.curve_fit依赖于使用平方度量的scipy.least_square来驱动优化。

不深入研究细节,我怀疑这就是问题发生的地方,当处理接近1e9的值时,您就达到了浮点算术错误占主导地位的阈值。

因此,您所达到的1e9阈值与变量x上的数字之间的区别无关(float64有足够的精度使其几乎完全不同),而是与其在求解时的用法有关:

代码语言:javascript
运行
复制
minimize F(x) = 0.5 * sum(rho(f_i(x)**2), i = 0, ..., m - 1)
subject to lb <= x <= ub`

您还可以检查一下,在它的签名中,公差大约有8年宽:

代码语言:javascript
运行
复制
scipy.optimize.least_squares(fun, x0, jac='2-point', bounds=(- inf, inf),
    method='trf', ftol=1e-08, xtol=1e-08, gtol=1e-08, x_scale=1.0,
    loss='linear', f_scale=1.0, diff_step=None, tr_solver=None, 
    tr_options={}, jac_sparsity=None, max_nfev=None, verbose=0,
    args=(), kwargs={})

这可能会让您调整算法,在达到收敛之前添加额外的步骤(如果是这样的话),但这不会取代或超过规范化的有用性。

方法比较

scipy.stats.linregress方法的有趣之处在于它的尺度公差,即按设计处理。该方法使用变量归一化和纯线性代数以及数值稳定性技巧(见TINY变量)来求解LS问题,即使在有问题的情况下也是如此。

当然,这与scipy.optimize.curve_fit方法形成了对比,后者是作为优化梯度下降算法实现的NLLS求解器(参见Levenberg-Marquardt算法)。

如果您坚持线性最小二乘问题(以参数而不是变量表示的线性问题,所以二阶多项式是LLS),那么LLS可能是一个更简单的选择,因为它为您处理归一化。

票数 1
EN

Stack Overflow用户

发布于 2022-09-22 13:15:23

如果只需要计算线性拟合,我认为curve_fit是不必要的,我也可以使用linregress函数代替SciPy:

代码语言:javascript
运行
复制
>>> from scipy import stats

>>> y = list(range(5))

>>> x = [1e8 + a for a in range(5)]
>>> stats.linregress(x, y)
LinregressResult(slope=1.0, intercept=-100000000.0, rvalue=1.0, pvalue=1.2004217548761408e-30, stderr=0.0, intercept_stderr=0.0)

>>> x2 = [1e9 + a for a in range(5)]
>>> stats.linregress(x2, y)
LinregressResult(slope=1.0, intercept=-1000000000.0, rvalue=1.0, pvalue=1.2004217548761408e-30, stderr=0.0, intercept_stderr=0.0)

通常,如果需要多项式拟合,我将使用NumPy 多相配合

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/73814378

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档