[tensorflow] 손실함수 정리
0. logit, sigmoid, softmax 본격적인 솔실함수를 보기 전에 logit, sigmoid, softmax에 대해 알아보자. 0.1 sigmoid함수 sigmoid 함수는 인공신경망에서 ReLU가 등장하기 이전에활발하게 사용되었던 activation function(활성화함수)이고, hiddin 노드 바로 뒤에 부착된다. 클래스가 2개이다. Sigmoid 함수는 모든 실수 입력 값을 0보다 크고 1보다 작은 미분 가능한 수로 변환한다. 그리고 미분결과가 간결하고 쉬워 초기에 많이 사용되었다. 0.2 softmax함수 softmax함수는 인공신경망에서 출력된 K개의 클래스 구분 결과를 확률처럼 해석하도록 만들어준다. 따라서 보통은 output 노두 바로 뒤에 부착된다. 코드 사용 시, sig..
인공지능(Artificial Intelligence)/Tensorflow
2020. 10. 29. 11:36
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- django
- Python
- react autoFocus
- vuejs
- react
- nodejs
- mongoDB
- error:0308010C:digital envelope routines::unsupported
- Express
- DFS
- 클라우데라
- Vue
- pandas
- next.config.js
- Queue
- read_csv
- 자료구조
- UserCreationForm
- BFS
- nextjs autoFocus
- 자연어처리
- NextJS
- Deque
- logout
- typescript
- useHistory 안됨
- JavaScript
- TensorFlow
- login
- useState
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함