scikit-learn
회귀 분석
수색…
보통 최소 제곱수
일반 최소 자승법 은 다음과 같은 의미에서 관측 된 결과에 가장 잘 맞는 특징의 선형 조합을 찾는 방법입니다.
예측할 결과의 벡터가 y 이고 설명 변수가 행렬 X를 형성하면 OLS는 벡터 β 해결을 찾습니다
min β | y ^ - y | 2 2 ,
여기서 y ^ = X β 는 선형 예측입니다.
sklearn에서는 sklearn.linear_model.LinearRegression을 사용 sklearn.linear_model.LinearRegression
작업을 sklearn.linear_model.LinearRegression
합니다.
응용 컨텍스트
OLS는 회귀 문제에만 적용되어야하며 일반적으로 분류 문제에는 부적합합니다. Contrast
- 이메일 스팸입니까? (분류)
- upvotes 간의 선형 관계는 답변의 길이에 따라 다릅니다. (회귀)
예
약간의 노이즈가있는 선형 모델을 생성 한 다음 LinearRegression
이 선형 모델을 재구성하는지 확인하십시오.
먼저 X
행렬을 생성합니다.
import numpy as np
X = np.random.randn(100, 3)
이제 우리는 y
를 X
의 선형 조합으로 생성하고 잡음을 발생시킵니다.
beta = np.array([[1, 1, 0]])
y = (np.dot(x, beta.T) + 0.01 * np.random.randn(100, 1))[:, 0]
y
생성하는 진정한 선형 조합은`beta '에 의해 주어진다.
X
와 y
만으로 이것을 재구성하려고하자.
>>> linear_model.LinearRegression().fit(x, y).coef_
array([ 9.97768469e-01, 9.98237634e-01, 7.55016533e-04])
이 벡터는 beta
와 매우 유사합니다.
Modified text is an extract of the original Stack Overflow Documentation
아래 라이선스 CC BY-SA 3.0
와 제휴하지 않음 Stack Overflow