본문 바로가기

Deep Learning lecture14

ML lab 06-1: TensorFlow로 Softmax Classification의 구현하기 lab-06-1-softmax_classifier.py # Lab 6 Softmax Classifier import tensorflow as tf tf.set_random_seed(777) # for reproducibility x_data = [[1, 2, 1, 1], [2, 1, 3, 2], [3, 1, 3, 4], [4, 1, 5, 5], [1, 7, 5, 5], [1, 2, 5, 6], [1, 6, 6, 6], [1, 7, 7, 7]] y_data = [[0, 0, 1], [0, 0, 1], [0, 0, 1], [0, 1, 0], [0, 1, 0], [0, 1, 0], [1, 0, 0], [1, 0, 0]] X = tf.placeholder("float", [None, 4]) Y = tf.plac.. 2020. 5. 3.
ML lec 6-2: Softmax classifier 의 cost함수 Where is sigmoid? sigmoid function을 통해 0부터 1사이에서 A에 해당하는 값, B에 해당하는 값, C에 해당하는 값이 각각 출력된다. n개의 값을 Softmax function에 넣게되면 다음과 같은 형태의 값을 갖게된다. 1. 0~1사이의 값을 갖게 된다. 2. 전체의 sum이 1이 된다. 즉, 전체의 확률에 대해서 알 수 있다. Cost function Cross-entropy cost function y값이 0일때는 무한대에 가깝고 값이 1일때는 0에 가까워 진다. A와 B중에서 L=[0, 1]일 때, 즉 B가 정답일 때, Y_hat은 예측이 맞은 경우, 예측이 틀린 경우로 나뉠 수 있다. 2020. 5. 3.
ML lec 6-1 - Softmax Regression: 기본 개념 소개 Multinaomial classification x1(hours) x2(attendance) y(grade) 10 5 A 9 5 A 3 2 B 2 4 B 11 1 C 좌표 평면에 그려보면 다음과 같다. 등급별로 나누기 위해서 Multinomial classification를 해야 한다. 이전에 배웠던 binary classification을 가지고 Multinomial classification을 할 수 있다. A or A not, B or B not, C or C not으로 나눌 수 있다. 다음과 같은 행렬 연산으로 나타낼 수 있다. 하나의 행렬로 합치면 다음과 같이 표현할 수 있다. 하나의 벡터로 처리하게 되면 한 번의 계산이 가능하고 독립된 classification처럼 동작을 하게 된다. 2020. 5. 3.
ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (new) Logistic Regression lab-05-1-logistic_regression.py # Lab 5 Logistic Regression Classifier import tensorflow as tf tf.set_random_seed(777) # for reproducibility x_data = [[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]] y_data = [[0], [0], [0], [1], [1], [1]] # placeholders for a tensor that will be always fed. X = tf.placeholder(tf.float32, shape=[None, 2]) Y = tf.placeholder(tf.float32, shape=[.. 2020. 4. 28.