본문 바로가기

ML (Hands-On Machine Learning)6

Chapter 15. Processing Sequences Using RNNs and CNNs 타자가 공을 치면 외야수는 즉시 공을 따라간다. 공이 어디에 떨어질지 모르지만 야수는 공을 추적하고 마침내 공을 잡습니다. 이처럼 우리는 미래를 예측할 수 있는 RNN에 대해 논의하고자 한다. RNN example -주가를 분석하여 구매/판매 시기 판단 -자율 주행 시스템에서 차량 궤도를 예측하여 사고 예방 -문서 또는 오디오 샘플을 입력으로 자동 번역 및 텍스트 음성 변환 같은 자연어 처리 *고정된 크기의 입력뿐만 아니라 임의의 길이의 시퀀스에서 동작할 수 있다. RNN은 시퀀스 데이터를 처리할 수 있는 유일한 유형의 신경망은 아니다. 오디오 샘픙 또는 텍스트와 같은 매우 긴 시퀀스의 경우 컨볼루션 신경망도 실제로 잘 동작할 수 있다. Recurrent Neurons and Layers -기존에는 입력.. 2020. 5. 26.
Chapter 9. Unsupervised Learning Techniques 오늘날 머신 러닝의 기술들이 Supervised Learning을 기반으로 하고 있지만, 사실 대부분의 데이터는 라벨링이 되어있지 않다. Input feature X가 존재하지만 라벨 y는 존재하지 않는다. 제조 생산 라인에서 각 품목의 사진을 몇 장 찍고 결함이있는 품목을 감지하는 시스템을 만든다고 가정하자. 자동으로 사진을 찍는 시스템을 만들면 하루에 수천장의 사진을 얻을 수 있을 것이다. 몇 주 동안 사진을 계속 찍는다면 매우 큰 데이터셋을 만들 수 있을 것이다. 그러나 라벨이 없다. 만약 결함이 있는지 없는지 판단하는 binary classifier를 만든다면, 'defective' 나 'normal'로 매 사진마다 라벨이 필요하다. 이 일은 전문적인 지식을 갖춘 사람이 앉아서 일일이 사진을 보면.. 2020. 5. 12.
Chapter 8. Dimensionality Reduction 본격적인 이야기에 앞서 왜 차원 축소(Dimensionality Reduction)를 하는 것일까? 고차원이 되었을 때 문제가 발생한다. 차원이 증가하면 그것을 표현하기 위한 데이터 양이 기하급수적으로 증가한다. 심지어 일정 차원을 넘으면 분류기의 성능은 점점 0으로 수렴하게 된다. 그렇게 때문에 너무 고차원의 데이터들은 의미를 제대로 표현하기가 어렵다. 이러한 이유로 데이터들을 우리는 차원 축소를 하여 다루게 된다. * Dimensionality Reduction? 데이터의 의미를 제대로 표현하는 특징을 추려내는 것이다. 대부분의 상황에서 차원의 크기는 특징의 개수를 나타내고 특징(feature)이 너무 많기 때문에 학습이 어렵고 더 좋은 특징만 가지고 사용하겠다는 것이다. 그렇다면 이러한 특징은 어떻.. 2020. 4. 27.
Chapter 7. Ensemble Learning and Random Forests 수천 명의 임의의 사람들에게 복잡한 질문을 한 다음 답변을 집계한다고 가정해보자. 많은 경우 이 집계된 답변이 전문가의 답변보다 낫다는 것을 알게 될 것이다. 이것을 군중의 지혜라고합니다. 마찬가지로, classifier ​또는 regression과 같은 예측 변수 그룹의 예측을 집계하면 최상의 개별 예측 변수보다 더 나은 예측을 얻을 수 있다. 예측 변수 그룹을 앙상블이라고합니다. 따라서이 기술을 Ensemble Learning이라고하며 Ensemble Learning 알고리즘을 Ensemble method라고 한다. Voting Classifiers Voting Classifers는 '다수결 분류'를 의미한다. 즉, 여러가지 Diverse predictor를 사용하여 결과를 집계하여 클래스를 예측하는.. 2020. 4. 14.