본문 바로가기

AI & Deep Learning/이론

multinomial logistic regression - Softmax

7. Softmax regression

 - multinomial logistic regression

: 여러 개의 클래스가 있을 때 예측, 그 중에서도 가장 많이 사용되는 softmax

 

- 지난 포스트 정리

: binary classificaion 

: z 가 아주 커지거나 아주 작아지더라도 g(z) 가 0과1 사이의 값을 갖도록 연구,

그래서 나온 것이 sigmoid 함수

: sigmoid함수를 이용해서 0-1 사이로 압축

: 최종 hypothesis 는 이렇게 나타남

 

그림으로 정리,

: 입력 값 x  WX 라는 수식에 넣고, 나온 값인 z sigmoid 함수에 넣어 값을 도출

: Y 는 실제 데이터,

 Y 햇은 예측 데이터(H(x))

 


ex> 공부 시간, 출석 횟수에 따른 등급data set

multinomial classification

 


: A, B, C 각각의 binary classification을 가지고도 구현이 가능

 


: matrix 곱이 됨

matrix multification

: 하나의 vector  3개의 독립된 classification 알고리즘을 구현!

: 각각의 sigmoid 모듈을 XA , XB, XC햇에 적용하면 됨

-> 이것을 효율적으로 하는 방법이 존재

 

 

 

 

출처 : 모두의 딥러닝 https://hunkim.github.io/ml/

'AI & Deep Learning > 이론' 카테고리의 다른 글

Logistic Classification Cost 함수  (0) 2019.04.01
Logistic Classification (Binary)  (0) 2019.04.01
Multi variable linear regression  (0) 2019.04.01
Linear Regression cost 함수 최소화  (0) 2019.04.01
Linear Regression 의 개념  (0) 2019.04.01