Post

PRML [1] 소개

PRML 공부에 들어가기에 앞서…

내가 이 책 공부를 함으로 인해서 인공지능 모듈을 더 능숙하게 쓸 수 있게 되리라는 기대는 하지 않는다. 그건 정말 시행착오를 거쳐서 코드를 더 많이 찍어 본 사람이 당연히 더 잘할 것이다. 그럼에도 불구하고 내가 이 책을 공부하려는 이유는, 기존에 존재하는 모델을 사용하면서 내가 지금 뭐 하고 있는 건지 아주 조금은 더 감을 잡을 수 있게 하기 위함이다.

어쩌다 보니 동기들과 스터디를 진행하게 되기 때문일 수도 있지만, 모여서 스터디를 하지 않았더라도, 내 성격상 결국에는 이 책을 공부하고 있었을 것이다. (물론 진로를 이쪽으로 잡았을 때 이야기이다.) 수학적 증명은 싫어하지만, 나름 “근본”을 좋아하는 편이라 ㅎㅎ;;

원래 ML 코드 찍던 사람도 아니고, 심지어 수학도 잘 못한다. 따라서, 이 책의 모든 것을 이해할 수 있을 거라고 기대하지 않는다. 모르는 부분이 분명히 굉장히 많을 것이지만, 제발 중도 하차만 하지 않았으면 좋겠다. (망한 것 같다) 몰라? 넘어가. 미래의 나는 더 똑똑하길 바라면서, 미래의 나에게 이해를 맡기고, 끝을 한 번 찍는 것을 목표로 하겠다.


handwriting image

이 손글씨 사진은 인공지능 관련한 수업을 들을 때마다 첫 장에서 소개로 본 것 같은데, 대충 어떤 사람의 손글씨로 적힌 숫자를 이미지에서 인식하기 위해 학습을 해야 한다는 내용이었다.


패턴 인식 : 컴퓨터 알고리즘을 활용하여 데이터의 규칙성을 자동으로 찾아내고, 이 규칙성을 이용하여 데이터를 가공하는 과정


training set(훈련집합) $\rightarrow$ training / learning phase (훈련/학습 단계) $\rightarrow$ test set(시험집합)

  • 훈련집합의 $N$개의 숫자들 ${x_1, .., x_N}$에 대해, 각 숫자의 카테고리는 표적벡터(target vector) $\bf t$로 표현된다.
  • 머신러닝 알고리즘의 결과물은 함수 $\bf y (x)$로 표현되는데, 그 형태는 훈련 집합에 따라 달라진다.
  • 훈련을 마친 test set을 기준으로 새로운 입력값에 대한 $\bf t$를 예측한다.

generalization (일반화) : 훈련 단계에서 사용되지 않았던 새로운 예시들을 올바르게 분류하는 능력

  • 훈련 데이터는 모든 경우의 수를 커버할 수 없으며, 일반화가 중요하다.

pre-processessing / feature extraction (전처리/특징추출) : 훈련집합을 적절히 변환하여, 각 클래스 내에서의 가변성을 줄이는 과정

  • 척도가 같아지면 패턴 인식이 용이해진다. ex) 이미지 비율/크기 고정
  • 계산 과정의 속도를 높일 수 있다. $\rightarrow$ dimensionality reduction (차원감소)

기계학습의 종류

  1. supervised learning (지도 학습)

    • classification(분류) : 각각의 입력 벹너를 제한된 카테코리 중 하나로 할당
    • regression(회귀) : 기대되는 출력값이 연속된 값일 경우
  2. unsupervised learning (비지도 학습)

    • clustering
    • density estimation
    • visualization
  3. reinforcement learning (강화 학습)

    • exploration & exploitation → credit assignment
This post is licensed under CC BY 4.0 by the author.

© Jina Kim. Some rights reserved.