릿지 회귀 개념 및 예시: 머신러닝 정규화 회귀 기법 | Ridge Regression
릿지 회귀(Ridge Regression) 개념 및 예시: 머신러닝 정규화 회귀 기법
머신러닝 회귀 분석에서 릿지 회귀(Ridge Regression)는 과적합 방지와 다중공선성 문제 해결을 위한 핵심 기법입니다. 본 글에서는 릿지 회귀의 정의, 수식, 일반 선형 회귀와의 차이점, 라쏘 회귀와의 비교, 예제 시나리오 및 실제 적용 상황까지 단계별로 자세히 설명합니다. 주요 키워드로는 릿지 회귀, L2 정규화, 과적합, 다중공선성, 일반화 성능, λ 하이퍼파라미터 등이 포함됩니다.
1. 릿지 회귀란? 정규화를 통한 선형 회귀 확장
릿지 회귀는 기본 선형 회귀(OLS: Ordinary Least Squares)에 L2 정규화 항을 추가하여 회귀 계수가 과도하게 커지는 것을 방지하는 회귀 기법입니다. 과적합(overfitting)을 방지하고, 다중공선성(multicollinearity) 문제를 완화하기 위해 사용됩니다.
기본적인 선형 회귀는 다음과 같은 비용 함수(Cost Function)를 최소화합니다:
minβ [ Σni=1 (yi - ŷi)2 + λ Σpj=1 (βj)2 ]
여기서 ŷi = β0 + β1xi1 + … + βpxip
여기서 λ는 하이퍼파라미터로, 회귀 계수의 크기를 제한하는 정도를 조절합니다. λ 값이 클수록 계수 크기를 더 강하게 제약합니다. λ = 0이면 일반 선형 회귀와 동일해지며, λ가 증가할수록 모델은 더 단순해집니다.
핵심 요점: 릿지 회귀는 계수를 0으로 만들지 않고 줄이는 방식으로 모델 복잡도를 제어합니다.
| 항목 | 내용 |
| 정의 | L2 정규화를 적용한 선형 회귀 |
| 목적 | 과적합 방지, 다중공선성 완화 |
| 정규화 항 | λ × 회귀 계수의 제곱합 |
| λ=0일 때 | 일반 선형 회귀와 동일 |
| 계수 특성 | 값이 작아지지만 0은 아님 |
2. 릿지 회귀 수식과 해석
릿지 회귀의 계수 추정식은 행렬 연산으로 다음과 같이 표현됩니다:
β̂ridge = (XTX + λI)-1 XTy
여기서
- X: 입력 변수 행렬 (n×p)
- y: 타겟 벡터 (n×1)
- I: 단위 행렬
- λ: 정규화 강도 조절 파라미터
이 수식은 XTX 행렬이 특이하거나 역행렬을 구하기 어려운 경우에도 계산이 가능하도록 안정성을 높입니다.
핵심 요점: 릿지 회귀는 수학적으로도 정규화 항을 더하여 역행렬 계산의 불안정성을 보완합니다.
| 기호 | 의미 |
| X | 입력 변수 행렬 |
| y | 목표 값 벡터 |
| λ | 정규화 강도 |
| I | 단위 행렬 |
| β | 회귀 계수 |
3. 릿지 회귀와 일반 선형 회귀의 차이점
릿지 회귀와 일반 선형 회귀의 가장 큰 차이는 정규화 항의 유무입니다. 일반 선형 회귀는 모델이 과도하게 데이터에 맞춰져 과적합될 위험이 있습니다. 반면 릿지 회귀는 회귀 계수를 제한해 모델이 더 일반화되도록 도와줍니다.
| 구분 | 일반 선형 회귀 | 릿지 회귀 |
| 정규화 | 없음 | L2 정규화 사용 |
| 계수 제약 | 없음 | 계수를 줄이지만 제거하진 않음 |
| 다중공선성 대응 | 불안정 | 안정적 |
| 과적합 위험 | 높음 | 낮음 |
4. 릿지 회귀와 라쏘 회귀(Lasso)의 차이
릿지 회귀와 라쏘 회귀는 모두 정규화 회귀 기법이지만, 사용하는 패널티 항이 다릅니다.
- 릿지 회귀: L2 정규화 → 계수를 줄이되 0은 아님
- 라쏘 회귀: L1 정규화 → 일부 계수를 0으로 만들어 변수 선택 기능 포함
즉, 라쏘는 불필요한 변수를 자동 제거하는 데 적합하며, 릿지는 모든 변수를 유지하면서 모델을 안정화시키는 데 유리합니다.
| 항목 | 릿지 회귀 | 라쏘 회귀 |
| 정규화 방식 | L2 | L1 |
| 계수 특성 | 0에 가까워짐 | 0이 되는 계수 있음 |
| 변수 선택 | 불가능 | 가능 |
| 적합 상황 | 모든 변수를 유지할 때 | 중요 변수만 사용하고 싶을 때 |
5. 릿지 회귀 예시: 집값 예측 모델
다음은 릿지 회귀를 사용할 수 있는 간단한 예시입니다.
주어진 데이터:
- 입력 변수: 방 개수, 욕실 수, 총 면적, 위치 점수 등
- 타겟 변수: 주택 가격
- 방 개수와 욕실 수는 상관관계가 높아 다중공선성이 발생할 수 있음
- 일반 선형 회귀를 사용하면 이 두 변수의 계수가 과도하게 커질 수 있음
- 릿지 회귀를 사용하면 각 계수를 완만하게 조절해 보다 안정적인 모델을 만들 수 있음
핵심 요점: 릿지 회귀는 변수 간 상관성이 높아도 모델을 안정적으로 만들 수 있으며, 과적합을 방지해 일반화 성능을 높입니다.
| 문제 | 변수 간 상관관계가 높아 계수가 불안정 |
| 해결책 | 릿지 회귀를 통해 계수 축소 |
| 효과 | 과적합 방지, 일반화 성능 향상 |
6. 릿지 회귀 적용 시 고려사항
- 정규화 강도(λ) 선택이 중요: 너무 크면 과소적합, 너무 작으면 과적합
- 교차검증 활용: λ 값을 최적화하기 위해 K-폴드 교차검증 사용
- 데이터 스케일링 필요: 릿지 회귀는 계수의 크기에 민감하므로, 표준화가 권장됨
핵심 요점: 릿지 회귀는 세심한 λ 조절과 전처리를 통해 최대 성능을 발휘합니다.
| 항목 | 내용 |
| λ 선택 | 교차검증으로 결정 |
| 스케일링 | 표준화 필수 |
| 적용 분야 | 금융, 마케팅, 부동산, 제조 등 예측 모델링 |
FAQ: 릿지 회귀에 대해 자주 묻는 질문
Q1) 릿지 회귀는 언제 사용하는 것이 좋나요?
A1) 릿지 회귀는 입력 변수 간 상관관계가 높거나 과적합 우려가 있는 경우에 적합합니다. 모든 변수를 유지하면서 모델의 복잡도를 낮추고 싶을 때 사용됩니다.
Q2) λ 값은 어떻게 정하나요?
A2) λ 값은 교차검증(Cross-validation)을 통해 결정하는 것이 일반적입니다. 일반적으로 Grid Search 또는 Random Search로 최적의 값을 찾습니다.
Q3) 릿지 회귀와 라쏘 회귀의 가장 큰 차이는 무엇인가요?
A3) 릿지 회귀는 L2 정규화를 적용해 계수를 줄이되 0으로 만들지 않으며, 라쏘 회귀는 L1 정규화를 통해 일부 계수를 0으로 만들어 변수 선택 기능이 있습니다.
Q4) 릿지 회귀는 변수 선택에도 도움이 되나요?
A4) 릿지 회귀는 변수의 중요도를 줄이지만 제거하지 않기 때문에 변수 선택에는 직접적이지 않습니다. 변수 선택이 필요하면 라쏘 회귀를 고려하는 것이 좋습니다.
Q5) 릿지 회귀 모델을 사용할 때 전처리가 필요한가요?
A5) 네, 릿지 회귀는 계수 크기에 민감하기 때문에 입력 변수를 표준화(standardization)하여 같은 스케일로 맞추는 것이 매우 중요합니다.
댓글
댓글 쓰기