본문 바로가기
AI&ML/ML algorithms

선형 회귀

by ornni 2022. 7. 18.
728x90
반응형

선형 회귀(linear regression)

관찰된 데이터를 기반으로 하나의 함수를 구해서 관찰되지 않은 데이터의 값을 예측

 

회귀 계수를 선형적으로 결합할 수 있는 모델

 


 

회귀계수

1차 함수의 기본 형식을 y=ax1+bx2라고 할 때 a, b를 회귀계수라고 함

 

선형 결합(linear combination)

선형 대수의 벡터의 합에서 나온 개념

서로 다른 벡터를 더해 새로운 벡터를 얻는 과정

단순히 더하는 것만이 아니라 가중치를 곱한 후 더하는 것도 포함

 

더 나은 회귀 함수 선택하기(평균 제곱 오차)

데이터포인트에서 함수의 선까지의 거리를 더하는 방법

Square error=(실제값과예측값까지의 거리)2

-> 평균 제곱 오차(MSE, mean squared error): f(θ)=1/n ∑(yi-θxi)2

 

선형 회귀의 목적함수

목적함수(objective function): 어떤 함수의 최댓값 또는 최솟값을 구하는 함수

-> 평균 제곱 오차를 최소화해야 함!

 

경사하강법(gradient descent)

회귀모델을 구현할 때 최초 회귀 계수를 임의값으로 설정한 후, 반복적으로 경사하강법을 실행하여 최소의 평균 제곱 오차를 가지는 회귀 계수(θ)를 선택

이때 학습률(learning rate, α)을 조정하여 θ값이 변경되는 정도를 의미함


linear regression

https://github.com/ornni/ML_algorithm/blob/main/linear_regression/linear_regression_code.md

반응형

'AI&ML > ML algorithms' 카테고리의 다른 글

Naive Bayes  (0) 2022.08.15
군집화  (0) 2022.08.01
KNN  (0) 2022.07.29
의사결정나무  (0) 2022.07.25
SVM  (0) 2022.07.15