본문 바로가기

tensorflow7

07-3. Tensor flow 에서 epoch 과 batch 설명 및 예제 07-3. Training using Epoch and Batch 출처 : 모두를위한 머신러닝 (http://hunkim.github.io/ml/) Tensor Flow 에서 많은 데이터를 학습시킬 때 사용하는 Epoch 과 Batch 에 대해 알아본다¶ 큰 사이즈의 데이터를 읽고 학습시키려면 그만큼의 벡터공간도 많이 필요하므로 일정크기 만큼 나눠서 학습을 시키는것이 효과적이다. 예를들어 100만개의 데이터가 있을 경우, 10만개씩 학습을 시키고 모델은 학습된 결과를 저장해둔 상태로 다음 10만개의 데이터를 학습하는 과정을 반복한다. 이 방법이 효과적인 이유는, 100만개의 데이터를 학습시켜두었는데 새로운 10만개의 데이터가 생겼을 때 110만개를 학습시키는것이 아닌 생성해둔 모델을 불러와서 사용 할 수.. 2018. 8. 23.
07-1. Tensor Flow 에서 Learning rate 이란 07-1. Learning rate 출처 : 모두를위한 머신러닝 (http://hunkim.github.io/ml/) Tensor Flow 에서 사용하는 Learning rate 에 관하여 이론과 예제를 통해 설명한다.¶ Learning Rate in Gradient Descent Optimizer¶Gradient descent optimizer 를 사용할 때 learning_rate 을 사용하였다. learning_rate 을 직관적으로 표현하면 다음 그림처럼 나타낼 수 있다. Learning rate 이 너무 클 경우, 정확한 minimum point 에 도달하지 못하거나 데이터가 튀어서 무한대로 나갈수가 있다. Learning rate 이 너무 작을경우, 변화가 너무 적어서 최대 step 에 도달해.. 2018. 8. 22.
06-2. Tensorflow 에서 One hot 인코딩을 이용한 classification 06-2. Fancy Softmax Classification 출처 : 모두를위한 머신러닝 (http://hunkim.github.io/ml/) One hot incoding 이란¶One hot 인코딩은 특정 상수값으로 표현된 Y 를 Matrix 형태로 바꿔주는 방법이다.¶위의 데이터를 보면 원본 파일에서는 각 직업에 따라 1~5 사이의 값으로 그 직업을 대표했다면, one hot encoding 을 거치고 난 후엔 1x5 행렬에서 한 값만 1이고 나머지는 0을 갖는 행렬로 표시된다.아래 예제에서 Tensorflow 에서 어떻게 구동되는지 살펴본다. 예제: 동물의 종 파악하는 알고리즘¶파일 위치: https://raw.githubusercontent.com/hunkim/DeepLearningZeroToA.. 2018. 8. 22.
06-1. Tensor Flow 로 3종류 이상 Classfication (Soft max Classifier) 06-1. Softmax Classification 출처 : 모두를위한 머신러닝 (http://hunkim.github.io/ml/) 이론 Multinomial Classification¶3종류 이상의 classification Softmax function¶ In [2]: import tensorflow as tf x_data = [[1, 2, 1, 1], [2, 1, 3, 2], [3, 1, 3, 4], [4, 1, 5, 5], [1, 7, 5, 5], [1, 2, 5, 6], [1, 6, 6, 6], [1, 7, 7, 7]] # one hot incoding.. 한가지만 1 나머진0 # C C C B B B A A y_data = [[0, 0, 1], [0, 0, 1], [0, 0, 1], [0, .. 2018. 8. 20.