일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 파이토치
- 6자유도 로봇팔
- pytorch visdom
- regression
- nucleo-f401re
- DH parameter
- softmax
- Robot arm
- Numpy
- 딥러닝
- IMU sensor
- Pytorch로 시작하는 딥러닝 입문
- Introduction to Robotics: Mechanics and Control by John J Craig
- DeepLearning
- 6dof
- RobotArm
- 파이토치로 시작하는 딥러닝 기초
- Robotics
- mnist
- 로보틱스 입문
- boostcourse
- Python
- dynamixel
- 6축 다관절
- PUMA 560
- visdom
- pytorch
- NUCLEO board
- custom cnn
- 로보틱스입문
- Today
- Total
슬.공.생
BoostCourse(DL)(week2)-Softmax Regression_1 본문
BoostCourse(DL)(week2)-Softmax Regression_1
AGT (goh9510@naver.com) 2022. 8. 2. 14:11본 포스팅은 부스트 코스의 [ 파이토치로 시작하는 딥러닝 기초 ] 와 [ Pytorch로 시작하는 딥러닝 입문 ] 의 내용을 통해 학습한 내용입니다.
파이토치로 시작하는 딥러닝 기초
부스트코스 무료 강의
www.boostcourse.org
PyTorch로 시작하는 딥 러닝 입문
이 책은 딥 러닝 프레임워크 PyTorch를 사용하여 딥 러닝에 입문하는 것을 목표로 합니다. 이 책은 2019년에 작성된 책으로 비영리적 목적으로 작성되어 출판 ...
wikidocs.net
SoftmaxRegeression은 앞서 사용한 Logistic Regression 의 이진 분류보다 세개 이상의 선택지로 분류가 가능한 다중 클래스 분류(Multi-class Classification) 가 가능하다.
따라서 기존 0,1로 지정되는 방법 이외에 3개이상의 선택지에서 사용될 수 있는 레이블 표현 방식인 원-핫 인코딩(One-Hot Encoding) 방식이 사용될 수 있다.
원-핫 인코딩은 주로 선택지간에 순위, 선호도등에 무작위성이 필요할 때 주로 사용된다.
기존 레이블 방법을 예시로 든다면 {bus, boat, train} 를 [1, 2, 3]으로 순차적으로 레이블 했을때를 예시로 들수 있다.
레이블 결과(예측 값을)를 실제 [bus] 값 과 비교하여 오차를 산출 할 때, MSE의 경우
위와 같이 단순히 다르다는 것을 출력하는 목적에서는 오차값에 차이가 발생하게 되므로 결과적으로는 " 버스는 기차보다 보트에 가깝다 " 라는 결과가 출력되게 되며, 단순 비교에 있어서는 적절하지 못한 방식이다.
따라서 원-핫 인코딩을 통해 모든 클래스 간의 관계를 균등하게 설정하여 비교를 진행하여야 한다.
{bus, boat, train} 를 각각
위와 같은 레이블 방식으로 지정하여 MSE 를 실행하였을 때 오차값이 아래와 같이 계산되며 클래스 간의 균등한 관계가 형성될 수 있도록 한다.
'study > DeepLearning' 카테고리의 다른 글
BoostCourse(DL)(week2)-Softmax Regression(MNIST) (0) | 2022.08.03 |
---|---|
BoostCourse(DL)(week2)-Softmax Regression_2 (0) | 2022.08.02 |
BoostCourse(DL)(week2)-Sequential model(class) (0) | 2022.08.01 |
BoostCourse(DL)(week2)-Logistic Regression (0) | 2022.08.01 |
BoostCourse(DL)(week1)-Mini Batch Gradient Descent (0) | 2022.07.30 |