leejhstory
Logistic (regression) classification (lec5-1) 본문
Team Friends Project/Machine running & Tensorflow
Logistic (regression) classification (lec5-1)
LeeJHstory 2017. 9. 27. 20:41수업의 궁극적 목표 뉴럴네트워킹 & 딥러닝
값을 예측하는 것(regression) y값
가설 Hypothesis
이지만 간단하게
H(X) = WX 로 표시
코스트함수 Cost
cost는 학습데이터와 가설을 세운 데이터 값의 차이의 평균치이다. (낮을수록 좋음)
코스트함수를 minimize하는 Gratient decent
w값을 조절하여 cost값을 줄인다.
기울기란 코스트값을 미분한 값으로 나타난다.
기울기의 변화 사이즈 α(=learning rate)
(Binary) Classification(분류)
두가지 중 하나로 분류하는 것 ( 0 or 1 )
자주 사용하는 것을 위주로 분류하여 걸러내는 방법
오류 : 0과 1의 기준이 모호 해질 수 있다. ( 1보다 큰수의 값이 나올 경우 )
해결방안 : H(x) 함수 대신 g(z)를 사용하여 0<g(z)<1 와 같은 sigmoid 함수(= logistic)가 된다.
z = WX
H(x) = g(z)
Logistic Hypothesis
이 된다.
e의 승수 중에 -W의 자승인 T는 X로 표기해도 되는데 W행렬의 생김새가 X해열ㄹ과 행렬곱이 안되는 형태면 전치시켜서 곱을 하라는 의미라고 한다. 예를 들어 W가 5행2열, X가 5행 1열이면 W의 열과 X의 행이 같지 않아서 행렬곱을 할 수 없어서 X를 전치시켜서 1행 5열로 만들어준다.
'Team Friends Project > Machine running & Tensorflow' 카테고리의 다른 글
lec 6 실습 (0) | 2017.10.15 |
---|---|
Softmax classifier의 cost함수(lec 6-2) (0) | 2017.10.13 |
Multinomial classifition : Softmax classification(lec 6-1) (0) | 2017.10.13 |
Logistic Regression 의 cost 함수 (lec 5-2) (0) | 2017.09.27 |
윈도우 텐서플로 설치하기 (0) | 2017.08.20 |
Comments