numpy
Простая линейная регрессия
Поиск…
Вступление
Установка линии (или другой функции) в набор точек данных.
Использование np.polyfit
Мы создаем набор данных, который мы тогда поместим с прямой $ f (x) = mx + c $.
npoints = 20
slope = 2
offset = 3
x = np.arange(npoints)
y = slope * x + offset + np.random.normal(size=npoints)
p = np.polyfit(x,y,1) # Last argument is degree of polynomial
Чтобы посмотреть, что мы сделали:
import matplotlib.pyplot as plt
f = np.poly1d(p) # So we can call f(x)
fig = plt.figure()
ax = fig.add_subplot(111)
plt.plot(x, y, 'bo', label="Data")
plt.plot(x,f(x), 'b-',label="Polyfit")
plt.show()
Примечание. В этом примере подробно описывается документация numpy по адресу https://docs.scipy.org/doc/numpy/reference/generated/numpy.polyfit.html .
Использование np.linalg.lstsq
Мы используем тот же набор данных, что и с полифитом:
npoints = 20
slope = 2
offset = 3
x = np.arange(npoints)
y = slope * x + offset + np.random.normal(size=npoints)
Теперь мы пытаемся найти решение, минимизируя систему линейных уравнений A b = c, минимизируя | cA b | ** 2
import matplotlib.pyplot as plt # So we can plot the resulting fit
A = np.vstack([x,np.ones(npoints)]).T
m, c = np.linalg.lstsq(A, y)[0] # Don't care about residuals right now
fig = plt.figure()
ax = fig.add_subplot(111)
plt.plot(x, y, 'bo', label="Data")
plt.plot(x, m*x+c, 'r--',label="Least Squares")
plt.show()
Примечание. В этом примере подробно описывается документация numpy на https://docs.scipy.org/doc/numpy/reference/generated/numpy.linalg.lstsq.html .
Modified text is an extract of the original Stack Overflow Documentation
Лицензировано согласно CC BY-SA 3.0
Не связан с Stack Overflow