1. 로지스틱 회귀란
로지스틱 회귀는 회귀식을 통해 사실 이진분류를 하는 방법입니다.
예를 들어 학생들의 영어, 수학, 국어 성적등(feature)과 시험합격여부 0, 1(label)이 주어지면,
회귀식을 통해 값
통계학에서 두가지 결과만 있을 때, 이항분포의 일종인 베르누이 분포를 사용합니다.
확률론적 방법을 통해 특정 확률이상이면 분류를 시켜주는 방식으로 진행합니다.
우선, 이를 위해 실수값
2. 활성화 함수
활성화함수는 선형회귀식으로 얻은 함수를 곡선형태의 꼴로 변환시켜주는 역할을 합니다.
활성화함수가 되기 위한 조건으로는 미분시 자기자신으로 표현가능하거나, 값이 정의역에서 잘 정의되는등
좋은 역할들을 해야합니다. 이를 해주는게 대표적으로 sigmoid funcion(시그모이드 함수)입니다.
시그모이드 함수는 실수전체집합에서 0과 1 사이의 값을 갖는 대칭함수입니다.
시그모이드 함수를 거쳐 나온 값은 0과 1 사이 값을 갖는 확률값으로 변환됩니다.
또한
아닌지에 따라 분류를 진행하는 경우가 많아 딱 적합함을 알 수 있습니다.
다른 활성화 함수로는 ReLU function(

3. 로지스틱 회귀 손실함수
로지스틱 회귀에서의 손실함수는 크로스 엔트로피 함수를 사용합니다.
이를 통해 경사하강법
4. 로지스틱 회귀의 모식도
로지스틱 회귀의 진행순서를 나타낸 그림입니다.

위 그림처럼 input feature
설정한 확률 기준으로 나눠줍니다. 그럼 테스트 결과가 나오겠죠. 이걸 경사하강법으로 epoch번 수행하며
'CS > 머신러닝' 카테고리의 다른 글
혼자 공부하는 머신러닝 + 딥러닝 - Ch2 (0) | 2023.01.07 |
---|---|
혼자 공부하는 머신러닝 + 딥러닝 - Ch1 (0) | 2023.01.04 |
선형 회귀 - 경사 하강법 (0) | 2022.12.02 |
선형 회귀 - 최소제곱법 (0) | 2022.11.27 |
회귀와 분류 (0) | 2022.11.26 |
댓글