일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 프로그래머스
- CSAP
- join
- Linear Regression
- c++
- DFS
- BOJ
- 시간초과
- 알고리즘 고득점 kit
- SQL
- 정렬
- ML
- sung kim
- PIR
- 모두를 위한 머신러닝
- 한화오션
- sort
- Neural Network
- deep learning
- Machine learning
- softmax
- deque
- TensorFlow
- Queue
- 백준
- stl
- 큐
- mysql
- 모두를 위한 딥러닝
- Programmers
- Today
- Total
목록softmax (2)
hello, world!
[cross entropy cost를 더 간단하게 구하는 방법] softmax_cross_entropy_with_logits() # 파라미터로 logits과 Y lable을 넘겨준다. [Y의 모양을 0~N의 label에서 one hot 형태로 바꾸는 방법] one_hot() 파라미터로 0부터 시작되는 Y, class의 개수를 넘겨준다. input의 rank가 N이라면 output의 rank는 N+1이 된다. (차원이 커지며 아직 원하는 shape이 반환되지 않음!) reshape() 위 one_hot()과 원하는 shape을 파라미터로 보낸다. (원하는 shape이 반환 됨!) 동물 정보(x_data)에 대한 어떤 동물인지 결과(y_data)를 학습시켜 예측하는 모델이다. x_data: n개의 인스턴스가..
Softmax Classification: 여러 개의 class 중에서 결과를 예측해야 할 때 유용하다. (ex. 학점 A, B, C, D, F 등 n개의 항목이 있는 경우) ▷ Hypothesis => Softmax function을 통과시킨다. 특징 1. a, b, c의 hypothesis는 0과 1 사이의 값이다. 2. a, b, c의 hypothesis 총합은 1이다. 따라서 확률로 볼 수 있다. (one-hot encoding: 확률이 가장 큰 것을 100%, 나머지를 0%로 판단하여 구현하는 방법) ▷ Cost function => Cross-entropy 실제 값 Y와 softmax의 결과값의 차이 ▷ Gradient descent => cost function의 미분 import tenso..