수색…


보통 최소 제곱수

일반 최소 자승법 은 다음과 같은 의미에서 관측 된 결과에 가장 잘 맞는 특징의 선형 조합을 찾는 방법입니다.

예측할 결과의 벡터가 y 이고 설명 변수가 행렬 X를 형성하면 OLS는 벡터 β 해결을 찾습니다

min β | y ^ - y | 2 2 ,

여기서 y ^ = X β 는 선형 예측입니다.

sklearn에서는 sklearn.linear_model.LinearRegression을 사용 sklearn.linear_model.LinearRegression 작업을 sklearn.linear_model.LinearRegression 합니다.

응용 컨텍스트

OLS는 회귀 문제에만 적용되어야하며 일반적으로 분류 문제에는 부적합합니다. Contrast

  • 이메일 스팸입니까? (분류)
  • upvotes 간의 선형 관계는 답변의 길이에 따라 다릅니다. (회귀)

약간의 노이즈가있는 선형 모델을 생성 한 다음 LinearRegression 이 선형 모델을 재구성하는지 확인하십시오.

먼저 X 행렬을 생성합니다.

import numpy as np

X = np.random.randn(100, 3)

이제 우리는 yX 의 선형 조합으로 생성하고 잡음을 발생시킵니다.

beta = np.array([[1, 1, 0]])
y = (np.dot(x, beta.T) + 0.01 * np.random.randn(100, 1))[:, 0]

y 생성하는 진정한 선형 조합은`beta '에 의해 주어진다.

Xy 만으로 이것을 재구성하려고하자.

>>> linear_model.LinearRegression().fit(x, y).coef_
array([  9.97768469e-01,   9.98237634e-01,   7.55016533e-04])

이 벡터는 beta 와 매우 유사합니다.



Modified text is an extract of the original Stack Overflow Documentation
아래 라이선스 CC BY-SA 3.0
와 제휴하지 않음 Stack Overflow